O que é SEO? Como conquistar o topo no ranking do Google

A otimização para mecanismos de pesquisa

As pessoas na web se sentem mais seguras em visitar um site quando acreditam que ele é confiável. Os mecanismos de pesquisa também. Conteúdo relevante, informação útil, motiva um usuário a acessar seu link. Além desses fatores, é um site amigável para SEO, que direciona buscadores como Google, Bing e Yahoo, até sua página da Web. SEO é tanto sobre atrair pessoas, quanto motores de busca.

Compreender o que os usuários pesquisam, identificar as palavras que estão sendo usadas nas buscas, disponibilizar as respostas através de conteúdo. Esse é o caminho para que o seu público, chegue até sua página da web e conheça seus produtos ou serviços. 

O SEO além de ser aplicado para esses objetivos, também, faz a conexão do seu site, com os rastreadores dos mecanismos de busca, através de elementos técnicos. SEO visa oferecer o que as pessoas e os buscadores procuram, na linguagem específica, de cada um.

Com a estratégia de SEO correta, é possível aparecer nas primeiras posições em resultados orgânicos do Google, sem precisar investir em mídia. É na primeira página que se concentram o maior número de visualizações, cliques e tráfego para as páginas da web. Portanto, o lugar ideal para seu blog, site ou e-commerce, marcar presença, ganhar autoridade, conseguir visitantes qualificados, e aumentar as conversões.

O que é SEO?

Search Engine Optimization – SEO, significa otimização para mecanismos de pesquisa, e se refere a um conjunto de técnicas com foco em conteúdo, tecnologia e autoridade. 

São as otimizações de SEO que permitem estruturar suas páginas da web, para os robôs dos motores de busca entenderem as informações, indexarem a página e definirem seu rankeamento nas pesquisas orgânicas.

Quando você se torna um dos primeiros resultados, que as pessoas visualizam ao realizarem uma busca no Google, aumentam de forma significativa, o número de visitantes e as chances de conversão em seu site. Ou seja, mais tráfego qualificado, mais clientes e maior receita.

SEO também está relacionado ao SEM (Search Engine Marketing), estratégias de marketing digital que otimizam sites e conteúdo, integrando a criação de anúncios pagos e links patrocinados.

Qual é a a melhor estratégia de SEO? 

Considera os fatores certos.

São milhares de páginas publicadas na Web todos os dias, e milhões de pesquisas sendo feitas por segundo, só no Google. O que isso significa? Que a concorrência para os sites, aparecem nas primeiras posições dos buscadores é muito alta. 

Mas isso não é bem assim, segundo estudos, o maior responsável por impedir que um grande número de sites apareça nas páginas de resultados orgânicos, ou mesmo, consiga obter melhores classificações, nas SERPs, é a falta de uma estratégia correta de SEO. 

E três pontos se destacam: páginas que não correspondem a intenção de pesquisas, ou seja, assuntos sem potencial de tráfego; falta de relevância em backlink, sendo que ele está entre os principais fatores de classificação; o Google não pode classificar páginas da Web que não são indexadas.

Como o SEO funciona para os sistemas de pesquisa?

Para simplificar, como SEO funciona em mecanismos de busca, consideremos o Google. O buscador deixa bem claro, que o objetivo é oferecer aos seus usuários, os melhores resultados para as pesquisas realizadas. O que significa, conteúdo relevante, além do lado técnico relacionado à experiência do usuário (UX), na interação com o seu site. 

Portanto, as técnicas de SEO são aplicadas para que uma série de elementos que compõem sua página da web, funcionem corretamente para os buscadores, isso inclui, por exemplo: palavras-chave, tags de título e descrição, estrutura de links internos, tags de imagem. Como também, design responsivo, estrutura das páginas, velocidade de carregamento, facilidade de navegação, e muitos outros.

Os mecanismos de pesquisa procuram esses elementos, incluem uma extensa lista de fatores de ranqueamento, para determinar se o site atende as necessidades do pesquisador, e definir qual classificação a página vai ter nos resultados das SERPs (páginas de resultados dos mecanismos de pesquisa).

A hierarquia de necessidades de SEO da Moz Low, estabelece 7 passos iniciais para uma otimização bem-sucedida.

  1. Acessibilidade de rastreamento e indexação, para que os motores de busca encontrem o site.

  2. Conteúdo útil que responda o que o pesquisador pergunta. 

  3. Palavras-chave otimizadas, para atrair os mecanismos de pesquisa.

  4. Experiência do usuário aprimorada, o que inclui velocidade rápida no carregamento da página e UX atraente.

  5. Conteúdo relevante para obter compartilhamento, links, citações e amplificação.

  6. Título, URL amigáveis e descrição para atrair alto CTR nos rankings.

  7. Marcação de snippet/schema para se destacar nas SERPs.

Rastrear, entender e indexar –  o trabalho dos bots

Google e outros buscadores usam robôs (programas de computador), conhecidos como bots, spiders ou crawlers, para rastrear as páginas públicas da internet.

Esses bots, examinam centenas de bilhões de conteúdos, coletam informações sobre as páginas da web, como textos, imagens, vídeos, formando um índice gigantesco, que vai ajudar o usuário a encontrar exatamente o que procura, quando realizar uma busca online.

Sistemas que funcionam como filtros, encontram e organizam os conteúdos da web, analisam as páginas, e identificam quais têm as respostas mais relevantes para as perguntas dos usuários. São avaliados elementos como, as palavras da pesquisa, relevância do conteúdo, conhecimento de fontes, usabilidade da página, geolocalização, entre várias outras informações. 

De outra maneira, isso seria aleatório, e com o fluxo de dados crescendo exponencialmente na web, é impossível obter as respostas certas, quase que instantaneamente. Toda vez que é feito uma pesquisa, ocorre o rankeamento das melhores respostas, e SEO é a maneira certa de ajudar esses motores de busca a encontrarem seu site, nas pesquisas orgânicas.

Com relação a indexação, é interessante observar, que os blogs são considerados ferramentas extremamente eficazes de SEO, conseguem ser analisados e indexados mais rapidamente do que páginas estáticas, em um percentual extremamente mais elevado.

Sitemaps também ajudam na indexação de um site mais rapidamente, de acordo com o Google, apresentar um Sitemap ajuda a garantir que o buscador saiba sobre as URLs do site.

O que é SEO Técnico? 

É bom considerar, que mesmo o melhor conteúdo, não vai ter o efeito desejado, se os bots não conseguirem rastrear, percorrer, entender e indexar, as páginas do site. Sendo assim, quanto mais fácil for o acesso dos robôs, maiores as chances de melhorar a classificação orgânica. É o que torna o SEO Técnico tão importante.

Em uma estratégia técnica de SEO, o site é configurado da forma correta, para que cada página funcione como é preciso, isso tem o objetivo de garantir que os requisitos técnicos dos motores de busca sejam atendidos. O que inclui arquitetura do site, indexação, renderização e rastreamento das páginas da web.

Entre os fatores que fazem parte da otimização técnica, são especificados:

  • Arquitetura do site;

  • Estrutura de URL;

  • Javascript;

  • Sitemaps XML;

  • Dados estruturados;

  • Conteúdo duplicado;

  • Conteúdo fino;

  • Tags canônicas;

  • Hreflang;

  • Páginas 404;

  • Redirecionamentos 301.

A estrutura do site é o primeiro ponto a ser abordado. Isso se deve ao fato de que, muitos dos problemas referentes ao rastreamento e a indexação, estão relacionados a estrutura mal projetada do site. O que interfere em várias otimizações que precisam ser realizadas, como sitemap, URLs e os robots.txt, que bloqueiam o acesso dos bots em determinadas páginas.

Portanto, as otimizações técnicas de SEO, são mais fáceis de serem aplicadas em uma estrutura de site desenvolvida corretamente. Já as URLs, precisam seguir uma estrutura lógica e consistente, que ajude a identificar as páginas da web

Breadcrumbs, ou navegação por migalhas são SEO Friendly, facilitam a navegação adicionando de forma automática links internos ao site. 

Sitemaps, ainda são uma forma precisa e eficaz, para que os mecanismos de busca encontrem URLs do site. A velocidade da página, por ser um fator de classificação em pesquisas orgânicas, é preciso otimizar e evitar perder tráfego. 

Criar conteúdo original para as páginas da web, além de melhorar rankeamento, evitam a preocupação com conteúdo duplicado (cópia da internet). No entanto, conteúdo duplicado tecnicamente falando, pode ocorrer quando o CMS, cria várias versões de uma mesma página em URLs diferentes. E da mesma forma que conteúdo fino, o ideal é encontrar e arrumar.

O indicado é fazer uma auditoria técnica de SEO, avaliar o que está funcionando no site, e o que precisa de ajustes. Afinal, é um site otimizado para SEO, que pode chegar ao topo do ranking do Google.

Quando o SEO passou a ser tão importante? 

Nos anos 90 com o aumento das pessoas se conectando à internet, os motores de busca passaram a ser conhecidos. O Architext (1993) é considerado o primeiro buscador, surgem Yahoo (1994) e o Google (1997), e o sistema de pesquisa Bing da Microsoft, em início muitos anos depois (2009).  

A busca por informações nessa época ocorria com certa facilidade, o que se tornava discutível, era a qualidade dessa informação.

Os resultados das pesquisas estavam diretamente relacionados ao fato de que, grande parte dos sites na web, sobrecarregavam o conteúdo das páginas com palavras-chave, para atrair tráfego e aumentar as classificações nas pesquisas dos buscadores existentes.

Além do uso repetido de palavras-chave, sem nenhum critério, também se tornou frequente o uso exagerado de links externos, como forma de melhorar a autoridade de domínio, e atrair potenciais anunciantes para os sites.

Os algoritmos não conseguindo ser efetivos nas classificações, abriam precedentes para surgir as práticas de Black Hat, técnicas com métodos questionáveis, que interferiam nos resultados dos sistemas de busca.

Quando o Google foi criado por Page e Brin, a ideia era ter uma ferramenta de pesquisa de larga escala, que permitisse resolver problemas como esses. E utilizar uma estrutura de links que determinasse a relevância das páginas da web, conforme a busca realizada pelo usuário. 

Em 1998, os dois publicaram um artigo em Stanford chamado “The Anatomy of a Large-Scale Hypertextual Web Search Engine”, no qual escreveram:

“… o modelo de negócio predominante para os motores de busca comerciais é a publicidade. Os objetivos do modelo de negócio publicitário nem sempre correspondem a fornecer buscas de qualidade aos usuários. ”

Nesse artigo, foi mencionado pela primeira vez o PageRank, uma métrica de 0 a 10, com base na quantidade e qualidade de links, para um site ser visto como autoridade, e obter maior relevância nos resultados das pesquisas. Acredita-se que essa tese, abriu caminho para o SEO dos dias de hoje. E a história continuou evoluindo … 

A primeira grande atualização feita pelo Google, que chamou atenção sobre SEO, foi Florida (2003), com a implementação foram removidas entre 50 e 98% dos sites considerados de baixa qualidade, que praticavam a técnica de keyword stuffing, o uso excessivo de palavras-chave. 

vídeo do Google (com tradução para o português), fala sobre: trilhões de perguntas sem respostas fáceis.

O que é um algoritmo?

Algoritmo é uma sequência de raciocínios, instruções e operações, definida para executar tarefas e solucionar problemas. Na matemática, algoritmos são usados há séculos em cálculos.

O conceito atual, que tornou o algoritmo conhecido, está associado aos sistemas de busca da internet, e as estratégias de otimização (SEO), para alcançar melhores classificações em pesquisas realizadas pelos usuários online.

A doutora em Ciência da Computação pela Universidade de Stanford, Barbara Liskov (1968), estudando os programas como questões matemáticas, adaptou os algoritmos para programação. Com isso, foi possível aprimorar a linguagem de programação, inserindo comandos através de algoritmos. 

Em 2008, o Prêmio Turing, considerado o Nobel da Computação, foi dado a Dra. Liskov, por essa revolucionária descoberta.

Os algoritmos estão presentes, não somente em mecanismos de pesquisa como Google, Bing e Yahoo, mas também, nas redes sociais (Facebook, Instagram, LinkedIn, Twitter), em plataformas de música e vídeo (YouTube, Spotify, TikTok), e de várias outras formas na Web. Uma sequência lógica de raciocínio, que leve a uma ação, é um exemplo de algoritmo.

O que são os algoritmos do Google?

Um conjunto de operações sistemáticas de cálculo, usado para definir a prioridade que as páginas da Web serão classificadas, nas SERPs do Google.

Esses sistemas de classificação são compostos por uma série de algoritmos, que permitem aos Googlebots (robôs) analisar de forma rigorosa, vários fatores em um site em relação a uma consulta realizada. 

Como são bilhões de páginas de sites examinadas, o Google mantém diversas instâncias desses bots, funcionando simultaneamente, fazendo uma varredura completa na Web. E tudo, em frações de segundos.

Assim, é decidido qual é a melhor página, e como ela vai aparecer rankeada na SERP (Searching Engine Result Page), os bots seguem os critérios estabelecidos pelos algoritmos do Google. Esse é um dos grandes desafios, dos especialistas em SEO.

Algoritmos e os desafios do SEO

Procurar entender como funcionam os algoritmos do Google, com relação ao rankeamento orgânico na primeira página, é um dos grandes desafios do SEO, já que o buscador procura manter isso em segredo.

A eficiência dos robôs aumenta para combater técnicas de black hat, penalizando páginas que adotam práticas contrárias as diretrizes implementadas pelo buscador. E nessa evolução os principais benefícios residem, na maior compreensão sobre as intenções das pesquisas dos usuários. Afinal, a função do Google é mostrar as melhores respostas, para as perguntas dos usuários do sistema. 

Entre os diferentes fatores considerados pelo buscador, para determinar a classificação de uma página nos resultados de pesquisa, estão: visitas diretas no site, quantidade de páginas acessadas, taxa de rejeição e total de domínios de referência. Outros são:

  1. Autoridade do domínio: é determinado por fatores como confiança, alta qualidade e popularidade do site, tem como base uma forte estrutura de backlinks

  1. Autoridade de página: semelhante a autoridade de domínio, também analisa a confiança, quantidade e qualidade de links, frequência de atualização da página.

  1. Relevância de links: receber links de outros sites é essencial para aumentar a credibilidade, são entendidos como indicação de qualidade do conteúdo.

  1. Conteúdo original e de qualidade: para melhores classificações, são necessários conteúdo útil, relevante, original e amigável para SEO.

  1. Tamanho do conteúdo: conteúdos maiores em geral têm preferência, por serem considerados mais profundos e abordarem o assunto mais detalhadamente.

  1. Palavra-chave no título: permite precisão para identificar e entender do que se trata o conteúdo de início.

  1. Palavra-chave no conteúdo: palavras-chave integradas de forma natural no conteúdo, em quantidade adequada, trazem clareza sobre o assunto aos leitores e buscador.

  1. Tempo de permanência na página: usuários por mais tempo no site, é indicativo de conteúdo relevante, navegação fácil e intuitiva. 

  1. Velocidade de carregamento da página: a rapidez com que os usuários podem visualizar e interagir com o conteúdo da página.

  1. Design responsivo: site adaptado para os diferentes tamanhos e formatos de telas, com a mesma qualidade em desktop, smartphones e tablets. 

Como o algoritmo do Google funciona?

Uma das maneiras mais simples, e frequentemente adotada para exemplificar como um algoritmo funciona, é no preparo de uma receita culinária, e acontece assim: a receita tem os ingredientes necessários (dados de entrada); segue-se o passo a passo do preparo (instruções lógicas ou processamento); o prato finalizado (o objetivo, ou, resultado alcançado).

Nenhuma etapa em uma sequência de instruções pode ser suprimida, e à medida que são considerados outros cenários, os algoritmos se tornam mais completos e complexos. 

A função dos algoritmos é ser assertivo nas respostas das perguntas, para quem está usando o sistema. O algoritmo do Google segue três etapas:

  1. Rastreamento: crawling;

  2. Indexação: indexing;

  3. Rankeamento: classificação. 

O Google analisa as palavras usadas em uma pesquisa, isso inclui interpretação correta da linguagem e ortografia, além, do significado das palavras e característica da pesquisa, como também, se o conteúdo é atualizado ou atemporal.

O algoritmo procura páginas em que as palavras-chave relacionadas a pesquisa, estão presentes. A relevância é obtida através de uma série de fatores, entre os quais estão: a precisão em relação as palavras-chave, quantidade adequada de palavras-chave, os locais em que elas estão inseridas, número de correspondências da palavra-chave pesquisada, e sua utilidade em pesquisas semelhantes. 

O Googlebot considera as técnicas de SEO implementadas na página da Web, avalia a experiência do usuário, a variedade de informações do conteúdo e o nível de aprofundamento do assunto abordado. 

Isso se deve ao fato de que, cada vez mais, o sistema de algoritmo consegue interpretar o contexto relacionado à pesquisa do usuário. E entender da melhor maneira a intenção de uma pergunta, com o objetivo de trazer as informações corretas, nas páginas de respostas.

Para obter e priorizar as melhores respostas, os robôs do Google também analisam, dados do pesquisador, por exemplo, histórico de buscas recentes, geolocalização, horários e idioma. 

Como esses padrões estão em constante evolução, e são determinantes para um site obter melhor classificação orgânica nas pesquisas, é essencial o acompanhamento periódico das atualizações e de novos algoritmos desenvolvidos pelo Google. Esse é o dia a dia das agências de SEO.

É importante observar, que a inteligência dos robôs do Google permite que eles se adaptem, e aumentem ou diminuam o ranking de uma página nos resultados de pesquisa, conforme novos dados são coletados. É o que torna os serviços de SEO um processo contínuo.

Esses critérios adotados pelos algoritmos do Google, não são estáticos, e são atualizados constantemente, para aprimorar as buscas e refinar as respostas

O que acontece em uma pesquisa : O passo a passo dos bots

Intenção e significado da pesquisa

Inicialmente o algoritmo do Google, procura compreender o significado e a intenção da pesquisa, os mecanismos para isso não são conhecidos, mas permitem identificar a intencionalidade por trás de uma pergunta, que pode ser ampla ou específica. Por exemplo: como aprender violão, e qual o melhor violão em preço.

O Google aperfeiçoou a compreensão dos sinônimos, e consegue fazer a correlação de significados, ou seja, o algoritmo ao analisar uma frase como um todo, entende que mudar, pode ser o mesmo que substituir, ou instalar. Ou não.

Já se uma pesquisa é feita em inglês, o Google conclui que os resultados da busca devem ser no mesmo idioma. E identifica se o usuário está procurando informações de uma loja local, ou explicações de comércio em geral.

Conforme o que for pesquisado, o Google consegue identificar e definir se informações atualizadas ou assuntos atemporais, são mais úteis para o usuário. Portanto, em estratégias de otimização para mecanismos de busca, é preciso uma pesquisa de palavras-chave de SEO consistente, e observar se em seu negócio, são aplicadas as técnicas de SEO Local.

Relevância da página da Web

Com a intenção da pesquisa definida, o algoritmo do Google busca identificar quais páginas podem responder a pergunta, de forma mais relevante, para seu usuário. Nesse momento, o SEO On Page é crucial. 

A otimização de SEO na página está diretamente relacionada ao uso correto das palavras-chave, e isso inclui, título, subtítulos, tags de descrição, meta-tags e ao longo do texto.

É importante observar, que as palavras-chave precisam estar integradas no texto de forma natural, na quantidade adequada, para não prejudicar a qualidade do conteúdo, e ser vista pelos robôs como uma técnica de black hat.

O Google consegue através de dados de interação agregados e anonimizados, identificar se a página é relevante, muito além de simplesmente, conter um número grande de palavras-chave distribuídas no conteúdo.

Qualidade do conteúdo

O Google tem deixado claro, principalmente nos últimos anos, o conceito de qualidade como fator importante de classificação, nos resultados da busca orgânica. Desde 2019, foram implementadas uma série de diretrizes detalhadas, para orientar os especialistas em SEO, sobre o que o Google procura.

“Sugerimos focar em garantir que você esteja oferecendo o melhor conteúdo possível. Isso é o que nossos algoritmos procuram e recompensam. ” Google 2019.

Sobre o EEAT

EEAT é uma atualização do algoritmo do Google de 2019.

Nas diretrizes, o Google disponibiliza uma série de perguntas que permitem avaliar a qualidade de um conteúdo, sendo que muitas estão relacionadas aos conceitos de expertise, autoridade e confiabilidade. Esses pilares de avaliação constituem o E-A-T do Google.

E dizem respeito, a uma das partes mais importantes do algoritmo do Google para definir a qualidade de um conteúdo, mas não se restringindo somente a esses fatores. 

O Google também incorpora aos resultados do algoritmo, os avaliadores de qualidade de pesquisa humana. Sendo assim, quando um conteúdo é indexado pelo Google, e o algoritmo faz uma análise desse fator, um avaliador de qualidade de pesquisa revisa o conteúdo, e decide se o E-A-T é forte para obter uma classificação.

As decisões são pautadas com base nas Diretrizes de Avaliador de Qualidade de Pesquisa (SQEG), um documento disponibilizado publicamente, sobre essa forma de avaliação.

Como a lista de prioridades de qualidade do Google é extensa, e nem sempre, conhecida, para não ser impactado em suas páginas da Web, as técnicas de SEO com foco em qualidade do conteúdo, serão sempre a melhor escolha.

Experiência do usuário

Em seu algoritmo, o Google busca promover páginas úteis, que possam resolver as necessidades dos seus usuários, de maneira eficaz. Com isso, tem preferência sites que tenham carregamento rápido, apresentem qualidade em diferentes navegadores (Chrome, Firefox, Bing, outros), e sejam compatíveis com desktop, notebook, tablets e principalmente, smartphones. 

O Google costuma avisar sobre atualizações importantes, relativas a usabilidade e desempenho das páginas da Web, como também, disponibiliza uma série de ferramentas, para medir e monitorar esses fatores, que são usadas rotineiramente em trabalhos de SEO.

As métricas conhecidas como Core Web Vitals (UX), são um fator de classificação, e segundo o Google afirmou em 2021: “é mais que um desempate, mas também não substitui a relevância”. 

Portanto, é necessário que o site esteja de ponta a ponta otimizado (SEO), e isso inclui, os fatores de Core Web Vitals.

O que é Core Web Vitals?

Para avaliar a usabilidade de uma página, o algoritmo do Google analisa um conjunto de sinais essenciais, que estão contidos no Core Web Vitals. São 3 métricas de experiência do usuário, que definem os principais sinais vitais da Web. Eles visam:

  • Velocidade;

  • Interatividade;

  • Estabilidade visual.

Os indicadores são:

  1. Largest Contentful Paint – LCP (maior renderização de conteúdo): mede a velocidade de carregamento da página, considerando o conteúdo principal;

  2. First Input Delay – FID (primeiro atraso de entrada): mede o tempo para o usuário conseguir interagir com a página;

  3. Cumulative Layout Shift – CLS (deslocamento cumulativo de layout): mede a estabilidade do conteúdo enquanto a página é carregada e a interação do usuário com os elementos.

Largest Contentful Paint – LCP

A velocidade de carregamento de um site é um fator crítico para uma experiência positiva do usuário, uma métrica de rankeamento para o Google, e um objetivo do SEO.

O indicador LCP pode ser entendido como, impressão do maior conteúdo. A métrica mede a velocidade de carregamento, considerando o tempo de renderização, para que o maior elemento de uma página apareça na tela para o usuário. Será considerado o conteúdo principal, que pode ser imagem, texto ou vídeo.

A recomendação do Google é que o Largest Contentful Paint, esteja abaixo de 2.5 segundos, para o site oferecer uma boa experiência ao usuário. Quando o resultado estiver entre 2.5 até 4 segundos, precisa melhorar, será necessário fazer ajustes no site para reduzir esse tempo. Se o tempo estiver acima de 4 segundos, o LCP é ruim, o site está perdendo tráfego significativo e precisa de melhorias imediatas. 

A rapidez com que os elementos do conteúdo são renderizados, e ficam visíveis na tela, podem ser afetados por servidor lento, renderização cliente-servidor, JavaScript e CSS com bloqueio de renderização, recursos com carregamento lento.

Adotar técnicas de SEO é a maneira assertiva de resolver, e principalmente, evitar que esses problemas ocorram. 

First Input Delay – FID

First Input Delay, ou, o atraso de primeira entrada, indica problemas que afetam a interatividade. 

O FID mede o tempo de resposta, para a primeira interação entre o usuário e algum elemento da página, que pode ser acessar um link na página, clicar em um botão, ou com outro elemento baseado em JavaScript. Portanto, o cálculo se refere ao atraso, o tempo de espera, para que um evento de resposta seja processado, após a ação do usuário.

Execuções pesadas do JavaScript costumam ser responsáveis por um FID lento. E tornam a otimização um fator básico, para reverter esse impacto.

O usuário vai ter uma resposta considerada boa, se o tempo do FID for menor que 100 milissegundos. Velocidades entre 100 até 300 milissegundos, indicam que é preciso melhorar, realizar ajustes para reduzir o tempo, já um tempo acima de 300 milissegundos, é visto como uma experiência ruim, sendo necessário corrigir os problemas imediatamente. 

Cumulative Layout Shift – CLS

Mudança de layout cumulativa, é a métrica relacionada a estabilidade visual de uma página da web. A CLS mede a quantidade de movimentos, frequência e a gravidade das mudanças inesperadas de layout, que ocorrem durante a renderização de uma página.

Quando imagens, vídeos, anúncios ou widgets, são carregados ou redimensionados com atraso na página, podem causar movimentos repentinos, sobrepor os elementos, alterar as posições e interferir na interação com a página. 

Um exemplo disso, é a mudança inesperada da posição de um botão na página, na hora que o usuário vai clicar, o que interfere na resposta da ação. 

O Google definiu uma pontuação para medir: mudança de layout, fração de impacto (visualização do elemento instável), e fração de distância (o movimento do elemento no layout).

A pontuação de CLS das páginas deve ficar abaixo de 0.1 para ser considerada boa. Entre 0.1 e 0.25 é preciso melhorar, e acima de 0.25, indica que as mudanças repentinas na página estão causando uma experiência ruim para o usuário.

O CLS permite identificar as mudanças nos elementos do layout e o impacto que é gerado, para que seja possível garantir a melhor experiência UX, o que significa, um site responsivo, intuitivo e organizado.

Core Web Vitals e SEO

As métricas do Core Web Vitals foram desenvolvidas e incorporadas ao algoritmo do Google (2020), para melhorar a experiência do usuário em um site. Elas passaram a integrar o The Page Experience Ranking Factor (2021), que engloba 7 elementos relacionados a UX: Usabilidade mobile (Mobile friendly); Navegação segura; Segurança HTTPS; Sem Pop-ups intrusivos. 

Consideradas métricas críticas pelo Google, os fatores do CWV têm limites associados, que sinalizam o desempenho como: bom, precisa melhorar e ruim. 

A qualidade de uma experiência do usuário na web (UX), também é uma métrica mensurável de SEO, e o primeiro passo para identificar onde é preciso realizar ajustes.

Diminuir o tempo de carregamento da página, comprimir o HTML, CSS e JavaScript, são ações para obter melhores notas no CWS. No entanto, a melhor maneira de alcançar maiores pontuações no Google, é pensar na experiência do usuário como um todo, e isso é sobre SEO.

Portanto, não é somente entregar o melhor conteúdo, mas priorizar uma navegação agradável e produtiva, e isso também está relacionado a usabilidade, que tem tudo a ver com SEO.

As principais atualizações de algoritmos do Google

Nos primeiros anos da criação dos algoritmos, o Google lançou poucas atualizações de seus algoritmos. Com o passar dos anos essas mudanças passaram a ser frequentes, e os algoritmos vêm se tornando cada vez mais complexos, inteligentes e exigentes, para atender aos padrões de relevância e qualidade, no rigoroso processo que o Google estabelece. 

Em uma pesquisa a empresa de análise de SEO Moz, contabilizou somente no ano de 2018, o número de 3.234 atualizações no algoritmo pelo Google. De pequenas alterações que podem passar despercebidas, até atualizações que geram mudanças significativas nos resultados orgânicos.  

A função segundo o Google, é uma só: assegurar que os algoritmos cumpram o propósito de melhorar continuamente, a experiência dos seus usuários. 

As atualizações dos algoritmos, os impactos causados, as centenas de variáveis envolvidas nos rankings orgânicos, evidenciam a importância do SEO em cada página do site. São mais de 200 fatores considerados, e muitos não são conhecidos. Algumas das atualizações de algoritmo mais importantes, estão listados abaixo. 

Panda (2011)

O Panda foi lançado para recompensar sites com conteúdo de alta qualidade, e punir páginas de baixa qualidade, que apareciam nos resultados orgânicos, usando técnicas de black hat SEO e webspam. 

Milhares de sites foram rebaixados, o Panda afetou cerca de 12% dos resultados das pesquisas. Como filtro, foi atualizado de 2011 a 2015. 

Em 2016, o Google anunciou que o Panda era uma parte central de seu algoritmo, atribuindo “pontuação de qualidade” para as páginas da web, e usado como fator de classificação.

Foram penalizados pelo Panda práticas de:

  • Conteúdo fino: páginas com apenas algumas frases, ou nenhum conteúdo.

  • Conteúdo duplicado: conteúdos copiados, com pouca ou nenhuma variação.

  • Conteúdo de baixa qualidade: páginas com conteúdo irrelevante, informações de pouco valor.

  • Conteúdo gerado por usuário: postagens de baixa qualidade, com muitos erros de ortografia e gramática.

  • Conteúdo publicitário: páginas repletas de publicidade paga, ao invés de conteúdo relevante.

  • Fazendas de links: um grande número de páginas de baixa qualidade, com links de outros sites.

  • Páginas não confiáveis, com baixa autoridade.

Penguin (2012)

A atualização do algoritmo Penguin (Pinguim) visou especificamente o spam de links, e as práticas de black hat SEO na criação de links, que conseguiam manipular os resultados das pesquisas orgânicas nas SERPs. 

O algoritmo atua somente em links de entrada do site, e não analisa os links de saída. Permite que links naturais, relevantes e de autoridade, recompensem os sites que apontam. E por outro lado, links manipulados com técnicas de black hat, são rebaixados. 

Com o Penguin foram penalizados os sites que faziam uso massivo de palavras-chave, para melhorar a classificação nas pesquisas do Google. A técnica conhecida como keyword stuffing, vai contra as diretrizes do Google, e as melhores práticas de SEO.

Como o Panda, em 2016 o Pinguim, passou oficialmente a fazer parte do algoritmo do Google, atuando em tempo real.

Hummingbird (2013)

O Hummingbird foi o ponto de partida para algumas inovações importantes, nas atualizações de algoritmos do Google. Os resultados passaram a ir além de palavras-chave, e consideraram a semântica. O algoritmo considerou sinônimos e contexto, nas buscas realizadas pelos usuários. 

Passou a incluir localização e pesquisas feitas anteriormente, e mesmo as palavras não sendo exatas, o Beija-Flor apresenta respostas úteis nas páginas de resultados. O algoritmo não depende apenas de palavras-chave correspondentes, e consegue identificar em uma pesquisa as palavras importantes e as que não têm importância.

Os resultados se tornaram melhores, para palavras-chave de cauda longa, que em SEO, são os termos usados em buscas mais específicas, e com menos frequência.

Mesmo afetando 90% das pesquisas no Google, o impacto não foi grande, e segundo o buscador, após um mês do lançamento, a percepção das pessoas sobre as mudanças, ainda era pequena.

Pombo (2014)

O Google Pigeon (Pombo), é responsável por uma das grandes mudanças no algoritmo de busca local, alterando de forma significativa a classificação das empresas locais, nos resultados de busca orgânica.

A atualização permitiu que empresas locais alcançassem maior visibilidade, nos resultados orgânicos, independente de tamanho ou da popularidade da marca. O impacto do algoritmo foi altamente positivo, principalmente, para as pequenas empresas, e melhorou a experiência dos usuários, em relação às informações sobre os negócios, que estavam próximos da localização do pesquisador.

Calcula-se que aproximadamente metade dos sites tiveram sua posição rebaixada nas classificações orgânicas do Google, enquanto, as páginas de pequenos negócios aumentaram seus rankings. Com estratégias de SEO Local, muitas empresas constatam em seus sites e lojas físicas, o aumento do tráfego e do público que visita o comércio.

HTTPS/SSL Update (2014)

A segurança é prioridade para o Google, e a atualização HTTPS se tornou um fator de rankeamento, como forma de incentivar desenvolvedores a investir e aumentar a segurança na internet. 

Sites que possuem certificação SSL, usam informações criptografadas, impedindo que os dados sejam identificados e interceptados.

Mobilegeddon (2015)

“Quando se trata de pesquisar em dispositivos móveis, os usuários devem obter os resultados mais relevantes e oportunos, independentemente de a informação estar em páginas ou aplicativos compatíveis com dispositivos móveis. ”

Essa foi uma mensagem do Google sobre o Mobilegeddon. Com essa atualização, o Google procura alinhar a melhor experiência do usuário, com comportamento e tendência de mercado. Ou seja, o algoritmo melhora a experiência do usuário em smartphones e tablets, com sites responsivos, carregamento rápido e usabilidade aprimorada.

Com a atualização Mobilegeddon (2015), sites mobile-friendly passaram a ter maior relevância nos resultados orgânicos do Google. E páginas que não eram compatíveis com diferentes telas, caíram na classificação das páginas de pesquisa.

A otimização para mobile continua cada vez mais relevante uma vez que o google está fazendo a indexação através de celulares, conhecido como o mobile first indexing. O mobile first index significa que o Googlebot vai rastrear e indexar principalmente as páginas apartir de um celular para todos os sites novos a partir de 2019.

RankBrain (2015)

Considerado uma evolução do Hummingbird, e uma revolução na forma de processar os resultados das pesquisas, o algoritmo usa inteligência artificial e machine learning, para compreender as intenções de busca dos usuários.

Com o RankBrain o Google evidencia um propósito: o objetivo é entender as consultas realizadas pelos usuários.

O que torna o RankBrain não só importante por entender as pesquisas, mas também uma forma de contextualizar uma série de “coisas”, além da literalidade das palavras-chaves. Esta atualização de algoritmo, foi o primeiro passo em direção a IA e aprendizado de máquina aplicado para SERPs. 

Como a única certeza em relação ao Google é a mudança e a experiência do usuário, o desafio do SEO é lidar com variáveis, entidades e sinais, e o que as máquinas podem fazer com eles.

Fred (2017)

A atualização Fred, visou sites com conteúdo de baixa qualidade e um número muito alto de anúncios. Páginas criadas com a finalidade de gerar receita, através de banners de propaganda, e o uso de anúncios que aparecem como conteúdo, além de, links e vinculação de afiliados agressiva. 

Os sites impactados com Fred, agiam para obter monetização extremamente agressiva, a finalidade do conteúdo é simplesmente, direcionar tráfego através dos anúncios, para obter maiores receitas, o que vai contra as diretrizes do Google. 

Medical Update (2018)

Esta atualização obteve grande impacto em sites da categoria YMYL (Your Money, Your Life – Seu dinheiro, Sua vida), que estão relacionados aos assuntos sobre saúde e finanças, e podem influenciar a vida das pessoas, por isso, o nome Medical Update.

O algoritmo considera os fatores EEAT, para melhorar métricas de qualidade, assim, conteúdos de autoridades, tem melhor posicionamento nas páginas de resultados, em relação aos de autores que não tenham experiência na área.

BERT (2019)

Ao anunciar o algoritmo o Google, chamou de: a atualização mais importante em cinco anos. O BERT (Bidirectional Encoder Representations from Transformers), é um sistema de inteligência artificial especializado em NPL ou Natural Language Processing, o que significa, processamento de linguagem natural.

O algoritmo atua em pesquisas complicadas, que precisam de contexto para obter as respostas certas. É capaz de compreender, analisar as palavras pesquisadas, os significados e com o que elas estão relacionadas. 

Como também, o BERT consegue entender frases escritas em uma linguagem de conversação mais natural, com todas as nuances de contexto, e assim, se aproximar do entendimento humano.

De acordo com o Google, BERT está relacionado a 10% das pesquisas realizadas, e afeta diretamente o SEO On Page. As páginas da web precisam de estruturas claras, links internos, dados não estruturados transformados em semiestruturados, entre uma série de fatores.

Atualização de confiabilidade (2019)

A atualização de confiabilidade impactou principalmente em sites de notícia. O jornal inglês The Daily Mail, divulgou que seu tráfego de pesquisas orgânicas teve uma queda de 50%, após a implementação do algoritmo do Google. O fator confiança do público na qualidade dos conteúdos passa a ser cada vez mais relevante.

Atualização de diversidade (2019)

Com a atualização do algoritmo de diversidade, sites que apareciam em vários resultados para uma mesma pesquisa, passaram a ter somente 2 opções de resultados diferentes, em uma SERP.

O Google tem como objetivo diversificar os resultados nas pesquisas, e evitar que sites com domínio de autoridade mais alta, estejam presentes um número maior de vezes, entre as 10 primeiras posições.

O que é White Hat SEO

White hat SEO se refere as melhores práticas e estratégias de otimização, que seguem as diretrizes dos mecanismos de buscas, que tem como principal objetivo, disponibilizar conteúdo de valor para os usuários. Os mecanismos de pesquisa priorizam os sites que adotam essa conduta, para as melhores classificações nas páginas de resultados.

 

O que é Black Hat SEO? 

As técnicas conhecidas como black hat SEO são uma referência aos filmes western, em que os bandidos, geralmente, usavam um chapéu preto. O objetivo desse método, é enganar os motores de busca, com táticas que fazem os buscadores entender que um conteúdo é a melhor resposta, e posicionar o site no topo dos resultados orgânicos, de forma rápida, através de manipulação. 

O maior problema do black hat, é o fato de quem aplica o método, não valoriza o usuário, que a princípio, é um possível cliente.

Esse tipo de prática, considerada antiética, é contrária às diretrizes implementadas pelos buscadores, por isso, resultam em punições graves. O Google vem atualizando seu algoritmo de forma constante, desde o ano 2000, procurando identificar sites que adotam as técnicas de black hat. E mesmo que alguma técnica de “chapéu preto” funcione, será por pouco tempo.  

Nas diretrizes do Google para webmasters, estão especificadas as práticas consideradas ilegais, que podem fazer um site ser removido inteiramente do índice do Google, não aparecendo mais nos resultados do Google.com, ou de qualquer um dos sites parceiros.

O black hat resulta no oposto das estratégias de SEO, impactando de forma negativa, visibilidade, ranking de resultados orgânicos, tráfego para o site. Algumas estão listadas abaixo.

O que é Grey Hat SEO?

Entre o white e o black, acontece o grey. Na zona cinzenta, a prática de otimização não é totalmente ruim ou boa, ficando em um “meio-termo”. Mesmo adotando as melhores práticas de SEO, em algumas situações específicas, são usados métodos para alcançar resultados mais rápidos. São exemplos de grey hat, o envio de e-mail marketing sem permissão, e comentários em postagens com objetivo de conseguir link externo. Isso geralmente, não incorre em punição.

  • Excesso de Palavras-chave 

O uso excessivo de palavras-chave em uma página da web, vai ajudar a obter “menores posições”, e não “melhores”, como alguns especialistas em black hat costumam enfatizar. Técnicas de SEO eficientes, trabalham palavras-chave, de forma natural, inseridas no conteúdo

Sobre palavras-chave

O Google considera que: “o sinal mais básico de que a informação é relevante é quando o conteúdo contém as mesmas palavras-chave da sua consulta de pesquisa”. 

Palavras-chave são as palavras que os usuários digitam nos buscadores como o Google, para encontrar a resposta sobre um assunto, produto ou serviço. Palavras-chave de diferentes formas, ajudam a construir a essência das páginas do seu site, otimizadas, trazem maior precisão quando os motores de busca procuram a resposta para uma pergunta.

Considerado um dos principais fatores de rankeamento, as palavras-chave são determinantes para o Google entender o assunto da página. O uso otimizado inclui palavras-chave em todo o conteúdo: no corpo do texto, títulos, tags de título, meta-descrições, alt tags. A palavra-chave principal no início de um conteúdo, torna claro o assunto abordado, outro facilitador, é incorporar palavras-chave semânticas e relacionadas.

A base de uma estratégia de SEO eficaz, tem como etapa principal a pesquisa de palavras-chave. É dessa forma que são encontradas as palavras-chave pesquisadas por seu público de interesse, sendo importante considerar o uso de palavras-chave informativas e com menor concorrência. 

No entanto, é preciso que as palavras-chave sejam integradas de forma natural, sem comprometer a qualidadedo conteúdo. O uso aleatório e em excesso dessas palavras, que possam comprometer a experiência do usuário, implica em técnica de black hat, e ignorar as diretrizes do buscador implica em punição.

  • Conteúdo duplicado

Nesse caso se refere aos conteúdos que são cópias de outros da internet, às vezes, somente alterando algumas informações ou dados. São facilmente identificados pelos mecanismos de pesquisa, e o Google costuma optar pela publicação mais antiga, em relação ao rankeamento. 

Conteúdo útil, relevante, original e SEO friendly, é considerado um dos principais fatores de ranking para mecanismos de buscas.

  • Conteúdo oculto

A tática de manipulação procura ocultar um conteúdo de uma página completamente, para que ele não seja visualizado pelo usuário, no entanto, continuará sendo identificado pelos buscadores. Incluir palavras-chave aleatoriamente, como forma de obter maiores classificações, são um dos objetivos, o outro é incluir links. No texto é usado fonte de tamanho 0, é aplicado a mesma cor de fundo da página

Muitas pessoas tentam burlar o Google com conteúdo oculto, utilizando a fonte no tamanho 0 ou a mesma cor do fundo, fazendo com que ele não apareça para o usuário ao acessar o site, porém, sendo contabilizado pelos mecanismos de busca.

  • Páginas de entrada

Ou Doorway Pages, são páginas da web com a função de serem portas de entrada, que direcionam o visitante para outro site. Geralmente tem conteúdo curto, são otimizadas com palavras-chave específicas para obter ranking, e melhorar o tráfego de uma página que muitas vezes possui conteúdo de baixa qualidade.

  • Cloaking

A prática de camuflagem, se refere a mostrar duas versões de uma mesma página, ou seja, no cloaking é configurado para mostrar uma página aos rastreadores dos mecanismos de buscas, e outra para quem acessa o conteúdo. A versão apresentada aos robôs, utiliza as técnicas necessárias para obter ranking, e o conteúdo da página exibida ao usuário, em geral, não é relevante.

  • Spam de comentários

O uso do espaço de comentários em páginas da web para adicionar links, repetidamente, visa obter autoridade para um site de maneira mais fácil. Uma prática que se tornou ineficiente, já que os robôs conseguem identificar através de uma tag nesses locais, que o link não deve ser visto como autoridade.

Porém links relevantes, disponibilizados de forma adequada, podem ser uma maneira de gerar tráfego e leads.

SEO e algoritmos do Google: porque é preciso acompanhar as atualizações.

Um dos principais motivos tem a ver com a pergunta: como o algoritmo do Google define as primeiras posições em uma SERP? Está diretamente relacionado a resposta: da mesma forma que acontece com a fórmula da Coca Cola, ninguém realmente sabe.

Portanto, como as atualizações de algoritmo do Google, podem ser uma prática diária, para o site manter uma posição alta no ranking e continuar gerando tráfego orgânico, é preciso conhecer as métricas que podem ter impacto nesse rankeamento.

Mas principalmente, é preciso considerar duas observações do Google: “

“Faça o que puder para melhorar a qualidade do conteúdo do seu site. ” (John Mueller, Analista de Tendências de Webmaster no Google)

 “Cada atualização que fazemos é em torno da qualidade do site ou qualidade geral, qualidade percebida do site, conteúdo e links ou qualquer outra coisa. ”

E isso também é sobre SEO.

Todo negócio online precisa de SEO? 

O Google vem ficando cada vez mais inteligente, isso se deve aos algoritmos constantemente implementados. E o relacionamento com SEO está cada vez mais forte. É a otimização do site que vai ajudar a fornecer informações adequadas, da forma correta aos robôs. Assim, sua página será indexada, classificada e exibida, nos resultados das pesquisas.

O Google consegue identificar a intenção do usuário, analisando como as palavras-chave estão interligadas, em uma frase pesquisada. E classifica mais alto, os resultados que são compatíveis com a finalidade deste usuário.

Quando você usa ferramentas de análise de tráfego, e faz a integração de SEO para Google, seu site terá muito mais tráfego orgânico, impulsionado pelo mecanismo de busca, o que é uma ótima oportunidade de comercialização para o seu negócio.

Segundo a plataforma de análise de SEO Moz: SEO tem aproximadamente 20 vezes mais oportunidades de tráfego do que PPC (Pay Per Click), em dispositivos móveis e desktops.

O tráfego orgânico, são as visitas para seu site geradas através das pesquisas de buscadores como Google, Bing e Yahoo, de forma espontânea, diferente dos anúncios que aparecem nas SERPs e são pagos.

A busca orgânica traz benefícios para os negócios, como:

  • Resultados a curto, médio e longo prazo, com alto ROI.

  • Alta relevância dos resultados orgânicos. Isso porque, os resultados orgânicos costumam gerar maior confiança aos usuários, do que os anúncios.

  • O tráfego orgânico não tem prazo para expirar, desde que sua página continue a manter as otimizações necessárias de SEO. Porém, da mesma forma que é difícil aparecer na primeira página, também é permanecer.

  • Permite aproximar e construir relacionamentos com os clientes, através de dados acionáveis, tornando possível acompanhar a jornada em um funil de vendas.

SEO: o meio para vários fins

Google, Bing e outros buscadores, visam a melhor experiência para quem navega em suas plataformas. Procuram incluir em sua primeira página, as respostas mais completas, de maior relevância, em relação as perguntas feitas por seus usuários. 

Com SEO é possível saber as respostas para essas perguntas, e encontrar as pessoas que estão buscando o que seu site oferece.

Otimizar uma página da web para mecanismos de pesquisa, é atender uma série de fatores, que possibilitam fazer parte da primeira página de resultados. 

SEO evolui de forma extremamente dinâmica, para acompanhar os sistemas dos buscadores. Basta analisar em tão pouco tempo, quantas atualizações de algoritmos foram implementadas pelo Google. Esse desafio, é o que motiva os especialistas em SEO.

Compartilhar:

Posts relacionados

SEO para Jornalistas: Otimização, Ferramentas e Estratégias Eficazes

Vivemos num mundo digitalizado onde a informação é consumida a um ritmo acelerado. Neste cenário, é essencial para os jornalistas entenderem o SEO – a arte de otimizar o conteúdo para os motores de busca. Afinal, se você não está na primeira página do Google, você está praticamente invisível.
Por isso, vou desvendar o universo do SEO e mostrar como ele pode ser um aliado poderoso na sua carreira j

Ler mais »

SEO para Médicos: Impulsionando Seu Consultório Online

Vivemos na era digital, onde a presença online é crucial para qualquer profissão – e a medicina não é exceção. Como médico, você pode se perguntar: “Por que preciso de SEO?” A resposta é simples: para ser encontrado pelos pacientes certos no momento certo.
SEO, ou otimização para motores de busca, é a chave para aumentar a visibilidade online de sua prática médica. Ele não só ajuda a atrair mais p

Ler mais »

SEO para Arquitetos: Amplie Sua Marca na Internet

Você já se perguntou como seu site de arquitetura pode alcançar mais pessoas? O SEO, ou otimização para mecanismos de busca, pode ser a resposta. Neste mundo digital, é crucial que os arquitetos entendam e utilizem o SEO para destacar-se na multidão.

Ler mais »

SEO para Corretores de Imóveis: Como Atrair e Analisar Clientes

Mergulhar no mundo digital pode ser assustador, especialmente quando você está focado em vender imóveis e não em algoritmos de busca. Mas, acredite em mim, o SEO é uma ferramenta poderosa que não pode ser ignorada.
SEO, ou otimização para motores de busca, é o segredo para ser encontrado online. Para um corretor de imóveis, é como ter um outdoor em cada esquina da internet. Vou mostrar como você p

Ler mais »
This image is set in a photography studio where a photographer is strategizing on enhancing their website's SEO.
SEO

SEO para Fotógrafos: Aumente sua Visibilidade Online e Atraia Mais Clientes

Estou prestes a revelar um segredo que pode transformar sua carreira como fotógrafo. Não é sobre a última câmera de alta tecnologia ou um novo software de edição de fotos. É algo que você pode não ter considerado até agora: SEO. Sim, é isso mesmo. SEO, ou otimização de mecanismos de busca, pode ser a chave para o sucesso da sua carreira fotográfica.
Agora, você pode estar se perguntando, “Eu sou u

Ler mais »
Stephane Bandeira

Stephane Bandeira

Consultora e Especialista em SEO

Notícias de SEO

Inscreva-se na Newsletter

Sem spam, apenas as últimas notícias de SEO.

Mais Acessados