𝖂𝖎ƙ𝖎𝖊

Otimização para motores de busca

Predefinição:Formatar referências

Predefinição:Manutenção/Categorizando por assunto

Otimização de Sites (otimização para motores de pesquisa (português europeu) ou otimização para mecanismos de busca (português brasileiro)) é o conjunto de estratégias com o objetivo de potencializar e melhorar o posicionamento de um site nas páginas de resultados orgânicos - desconsiderando links patrocinados/pagos - nos sites de busca gerando conversões, sejam elas, um lead, uma compra, um envio de formulário, agendamento de consulta e outros.

Pringle, definiu um número de atributos dentro da codificação HTML de uma página que frequentemente eram manipulados por provedores de conteúdo na Internet tentando melhorar a própria classificação em motores de busca. Devido a fatores que estão praticamente sob o controle exclusivo dos responsáveis por um site, os motores de busca continuaram a sofrer abusos e tentativas de classificações manipuladas. Para fornecer melhores resultados a seus usuários, os sistemas de busca tiveram que se adaptar e assegurar que as páginas de resultados mostrem sempre os resultados mais relevantes durante uma procura, no lugar de páginas inúteis cheias de palavras-chave e termos criados inescrupulosamente por webmasters na tentativa de usá-las como iscas para exibirem webpages sem link ou conteúdo. Estes fatos levaram ao nascimento de um novo tipo de motor de busca.[carece de fontes?]

Sistemas de busca orgânica

O Google foi iniciado por dois estudantes Ph.D. da Universidade de Stanford, Sergey Brin e Larry Page, e trouxe um novo conceito para avaliar páginas da web. Este conceito, chamado PageRank™, foi importante para o início da criação dos algoritmos do Google.[1]

Surgimento do termo SEO (Search Engine Optimization)

Existem três "propostas" para a origem do termo SEO, a primeira onde Bob Heyman juntamente com Leland Harden, definiram verbalmente o termo após melhorarem o posicionamento de um website de um cliente, no qual isso foi relatado no livro "Net Results" em 1997.[2]

A segunda vertente, e mais concreta que a primeira, é um post referenciado por Danny Sullivan, indicando um post SPAM feito na Usenet em 26 de Julho de 1997, onde o termo Search Engine Optimization aparece.[3]

Por fim, a terceira vertente, que é mais concreta e antiga, sugere que o termo é uma criação da Multimedia Marketing Group (MMG), empresa online de John Audette, que possuía páginas no início de 1997 que já mencionavam o termo Search Engine Optimization.[4]

Spiders de sistemas de busca podem observar um número variado de fatores quando estiverem navegando em um site, e muitas páginas de um site podem não ser indexadas pelos sistemas de busca até que elas adquiram mais pagerank ou links ou tráfego. A distância das páginas do diretório inicial de um site pode também ser um fator decisivo se uma página vai ou não ser navegada pelo spider, bem como outras métricas importantes. Cho et al.[5] descreveu alguns padrões para essas decisões de quando uma página visitada deve ser indexada pelo sistema de busca.

Quando descoberto, mecanismos de busca podem reagir diante daqueles utilizando métodos antiéticos de SEO. Em Fevereiro de 2006, o Google removeu tanto a BMW Germany quanto a Ricoh Germany pelo uso desse tipo de prática. O PageRank™ ainda possui bastante força na hora de posicionar sites na primeira página de resultados, porém, a disputa pelas primeiras posições leva em consideração também a experiência do usuário. O Google é capaz de identificar quando uma página está satisfazendo mais os usuários que outra, e pode inverter os rankings delas baseado nessa análise, independente da força do domínio de cada um.

Atualizações dos algoritmos do Google

Existe um algoritmo que analisa os fatores internos e externos do SEO; esses fatores são estimados em mais de 200 desde a ultima atualização do Google. Os próprios funcionários do Google não os conhecem. Esses algoritmos ajudam a entender como foi todo o funcionamento do Google até aqui:

Fevereiro de 2011: o Google lança o algoritmo Panda, cuja função é identificar e rebaixar o ranqueamento de sites com baixa qualidade de conteúdo, ao mesmo tempo em que privilegia os sites com bom conteúdo.

Abril de 2012: o Google lança um outro algoritmo importante, o Penguin, desta vez voltado para penalizar os sites que tentam violar as diretrizes de bom uso do Google por meio de técnicas “black hat” — aquelas que tentam melhorar artificialmente o ranqueamento de um site.

Agosto de 2012: o Google cria um pequeno algoritmo chamado Pirate, que penaliza sites com muitos casos de reclamação por infração de direitos autorais. É um mecanismo focado em combater a duplicação de conteúdo sem autorização do autor.

Setembro de 2012: o Google lança outro pequeno algoritmo, o EMD (Exact Match Domain), que visa a penalizar sites que são lançados com um domínio ótimo, mas conteúdo de baixa qualidade. Isso significa que não adianta ter um bom domínio, mas manter nele um site com conteúdo ruim. Nesses casos, em vez de contribuir para SEO, o domínio atrapalha.

Agosto de 2013: o Hummingbird, uma atualização nos algoritmos Panda e Penguin, é anunciado tendo a compreensão da semântica como uma grande novidade. Ele permite que o Google entenda que duas palavras distintas podem ter o mesmo significado e se referirem à mesma coisa. Por exemplo, carro e automóvel significam a mesma coisa dentro de um texto — e o Google passa a detectar isso.

Julho de 2014: o algoritmo Pigeon é lançado para que o Google seja capaz de usar como parâmetro a localização tanto de quem faz a busca quanto de quem aparece nos resultados dela. Isso significa, por exemplo, que um usuário que busca por “pizzaria” em Porto Alegre verá resultados diferentes de quem faz a mesma busca em Salvador.

Abril de 2015: a chegada do algoritmo Mobile Friendly — batizado de Mobilegeddon por profissionais do mercado — faz crescer significativamente a importância dos resultados de buscas em dispositivos móveis (smartphones e tablets). A partir dessa mudança, o conceito de “mobile first” passa a vigorar para valer, uma vez que sites que não forem responsivos podem perder ranqueamento nas buscas feitas por esses aparelhos.

Outubro de 2015: toda a lógica do Google passa a ser regida por machine learning — uma das aplicações de inteligência artificial — a partir do lançamento do sistema batizado de RankBrain. Isso significa que os resultados de buscas orgânicas passam a imitar a lógica humana, e não apenas a de fórmulas matemáticas complexas, como algoritmos.

Março de 2017: em mais uma investida contra táticas “black-hat”, é lançado o Google Fred. Seu propósito é, por exemplo, penalizar sites que usam títulos chamativos e sensacionalistas como forma de atrair usuários para páginas sobrecarregadas de anúncios

Agosto de 2018: chamada de "medic update", esta atualização impactou um grande número de sites ligados a área da saúde. Os especialistas destacam que novamente sinais relacionados a E-A-T e credibilidade das informações foram critérios para mudar a relevância dos sites nas buscas.

Junho de 2019: Conhecida por atualização Principal de junho de 2019, foi destaque na comunidade de SEO não somente pelo impacto que causou nos sites, mas por ter sido a primeira anunciada antecipadamente pela empresa. Através de um tweet, feito no perfil Google SearchLiaison, o principal motivo porque essa atualização ficou conhecida foi o impacto que gerou na confiabilidade dos sites de notícias, gerando resultados negativos para sites como o The Daily Mail, que perdeu 50% do seu tráfego.

Outubro de 2019: Google Bert passa a utilizar Processamento de linguagem natural (PLN), o que irá auxiliar o RankBrain a compreender a linguagem. O objetivo é compreender a intenção do usuário, para entregar o melhor resultado nas buscas.

Janeiro de 2020: Conhecida por atualização da posição 0. Esta mudança está associada ao algoritmo que diz respeito ao conteúdo da posição 0 (conhecido como featured snippets). Anteriormente as SERPs, ou páginas de resultados, apresentavam o conteúdo em destaque e abaixo repetia o mesmo resultado na posição original, no primeiro lugar. A partir da mudança, não há mais essa repetição.

Controvérsias

Em novembro de 2019 o The Wall Street Journal publicou um artigo chamado How Google Interferes With Its Search Algorithms and Changes Your Results, falando sobre como o Google "molda o que você vê" a partir de listas negras de sites, atualizações de algorítimos e equipes contratadas para avaliar os resultados de pesquisa. Este artigo foi muito criticado pela comunidade relacionada aos SEO no mundo.

Ver também

Referências

  1. Stanford.edu Sobre Google.
  2. [Net Results: Web Marketing that Works,Hayden Book, (Março 1988, 1a. edição) ISBN 1-56830-414-5
  3. alt.current-events.net-abuse.spam em Google Groups
  4. «Wayback Machine». Consultado em 11 de maio de 2019. Cópia arquivada em 1 de agosto de 1997 
  5. (Cho et al., 1998)

Ligações externas


Ícone de esboço Este sobre Internet é um esboço. Você pode ajudar a Wikipédia expandindo-o.

talvez você goste