Como Fazer uma Auditoria de SEO completa em 12 passos

Saber como fazer uma auditoria de SEO é a grande diferença entre um excelente trabalho e um mau trabalho de análise de SEO. A importância do SEO no desenvolvimento das estratégias de Marketing e Vendas das empresas portuguesas tem vindo, finalmente, a aumentar.

O crescente número de oportunidades para SEO Managers e Specialists no LinkedIn e sites de emprego, bem como o crescimento da procura de consultores e profissionais freelancers de SEO é um reflexo disso mesmo. Entretanto, o mercado português é, ainda, escasso na oferta de profissionais qualificados e com experiência relevante nessa área, e a falta de investimento em SEO por parte das empresas no passado é, em parte, responsável por este cenário de falta de profissionais de SEO.

Quando se começa a trabalhar o canal orgânico de uma empresa, há certas análises que têm que ser feitas para que o profissional de SEO possa conhecer o site e com base nesse conhecimento definir a “to-do list” por ordem de prioridades e criar a estratégia de SEO da empresa.

Neste artigo vou apresentar uma forma simples, mas completa de como fazer uma auditoria de SEO. Vamos a isto!

Search Engine Crawl

Para quem não sabe como funciona os motores de busca, o crawl é a função mais básica e importante da web. O Google descobre os sites e páginas na internet ao seguir os links disponíveis e a função básica (e das mais importantes) dos profissionais de SEO é garantir que o Google consegue ter acesso a todas as páginas do site que queremos indexadas. Tendo em conta que o Google só consegue ler links no formato html <a href=” uri ” anchor</a>, devemos garantir que todos os links estão nesse formato e não num formato que o Google não valoriza, como em Javascript, por exemplo.

Como verificar se o Google consegue fazer Crawl a todo o site?

Uma forma simples de analisarmos se o Google consegue ou não fazer crawl a todo o site é:

  1. Fazer o crawl ao site com o ScreamingFrog – partindo do princípio que os urls descobertos por esta ferramenta serão os mesmo que os bots do Google conseguem descobrir. Fazer um filtro na coluna “Canonical Url” de forma a ficarmos apenas com a versão canonical dos urls.
  2. Ir ao Google Analytics e buscar o tráfego de todos os canais por página de destino: Comportamento >> Conteúdo do Site >> Página de Destino.
  3. No excel fazer uma fórmula vlookup, de maneira a identificar as páginas do site que têm tráfego no Analytics, mas que não existem no ScreamingFrog.

Com esta análise conseguimos identificar as páginas órfãs, isto é, as páginas para as quais temos tráfego de campanhas pagas, mas que não têm links internos no site.

Search Engine Indexing

Após fazer o crawl e identificar todas as páginas (que estão acessíveis por inlink) do site, o Google irá indexá-las e mostrá-las nos resultados de pesquisa, sempre que considerá-las relevantes para a pesquisa feita.

Uma tarefa importante nesta análise é fazer uma comparação entre o número de páginas existentes (páginas descobertas no crawl do ScreamingFrog) e o número de páginas indexadas. Se descobrirmos que o site tem um número elevado de páginas, mas apenas uma pequena percentagem delas está a ser indexada pelo Google, devemos identificar as causas e fazer sugestões de melhoria.

Como identificar o número de páginas indexadas no Google?

Para identificarmos o número de páginas que o site tem indexadas no Google devemos:

  1. Abrir o Google Search Console.
  2. Clicar em índice do Google e em seguida em Estado do Índice.

Teremos acesso a um quadro com o número de páginas indexadas no momento e em baixo consta um gráfico com a evolução do mesmo número nos últimos 90 dias.

paginas-indexadas-no-google-search-console

Sitemap

O sitemap.xml é um ficheiro que serve para dizermos ao Google todas as páginas do nosso site que nós queremos que sejam indexadas. Tendo em conta essa definição, é importante perceber, primeiro, que o conceito de “as páginas que nós queremos que sejam indexadas”, significa, acima de tudo, que deve constar todas as páginas que nós não estamos a dar sinal ao Google para não indexar.

Há várias formas de darmos sinal ao Google para não indexar uma página – usar a diretiva Noindex, bloquear a página no ficheiro robots.txt, fazer um redireccionamento 301 para outra página ou ter na página o canonical para outro url. Deve-se ter em atenção de não incluir essas páginas no sitemap, de forma a não mostrar uma mensagem inconsistente ao Google.

Depois de preparar o ficheiro sitemap.xml com todas as páginas que queremos que sejam indexadas, devemos testar e submeter o ficheiro no Google Search Console e esperar que o Google faça o crawl ao site e decida pelas páginas que irá indexar.

Importa referir que um sitemap tem um limite de urls de 50.000 urls por ficheiro, caso o número de urls do site ultrapasse esse limite, o ideal é criar vários ficheiros sitemap por tipo de páginas, por exemplo, um ficheiro para páginas de produto, outro para artigos do blog, outro para a homepage e páginas do footer, entre outras e agregar todos esses ficheiros num ficheiro Mãe, que agrupe todos os outros.

Mais informações neste link.

Robots.txt

O ficheiro robots.txt serve para que possamos dizer ao Google, e a outros motores de busca, como devem fazer o crawl e indexar as páginas do nosso site.

Um ficheiro robots.txt deve ter o seguinte formato:

User-agent: *

Disallow: / “uri das páginas ou folders que queremos bloquear o acesso aos robots”

Sitemap: http://www.exemplo.com/sitemap.xml

Depois de criado, o ficheiro robots.txt deve ser testado e submetido no Google Search Console. Neste guia do Google temos informações mais detalhadas sobre como deve ser criado o ficheiro.

HTTP Status Code

O crawl feito no ScreamingFrog no primeiro passo serve para identificar todos os urls do site. Cada um desses urls tem um HTTP Status Code associado. Tecnicamente, um status code é uma mensagem enviada pelo servidor quando o request feito pelo browser pôde ou não ser realizado. Quando está tudo ok com a página, o status code enviado ao browser é o 200, quando a página não foi encontrada é enviado o code 404, quando há um erro com o servidor é enviado o code 500 e quando o url direciona para outra página a mensagem enviada pelo servidor é o HTTP status code 301.

Este artigo do blog Yoast faz uma explicação detalhada sobre cada um desses HTTP status code. O que os profissionais de SEO devem ter em atenção é que o que queremos é que grande percentagem dos nossos urls enviem o código 200. Se tivermos 404 ou 500, devemos identificar as causas e propor soluções. Caso o site tenha muitas páginas com redireccionamento 301, devemos ver o que podemos fazer para minimizar essa situação, de forma a ter o site otimizado para melhor aproveitar o crawl budget.

PageSpeed e Análise da Performance

O Google já tinha confirmado no passado que o PageSpeed era muito importante em Desktop e veio agora esclarecer que também já é um fator de ranqueamento em mobile. Ignorar esse fato não é, certamente, uma boa solução. Sabendo disso, devemos tratar de analisar a performance do site e identificar pontos de melhoria. O PageSpeed Insights, GT Metrix, Pingdom e a extenção Lighthouse do Google são as ferramentas que eu aconselho a serem usadas nesta análise.

Como essa análise é feita por url, eu sugiro que se escolha um url para cada tipo de página – homepage, página de produto, página de categoria, entre outras – e que esse url seja analisado nas ferramentas. Para além de identificarem os principais problemas técnicos do site, as ferramentas também sugerem pontos de melhoria. Essa análise deve servir para ser a base de todo o trabalho técnico de SEO do site.

É necessário ter em atenção que as ferramentas sugeridas anteriormente trabalham tendo em conta o antigo protocolo web. Caso o site que se esteja a analisar tenha suporte para o novo protocolo HTTP/2, algumas das sugestões de melhoria deixam de ser necessárias, pois como o HTTP/2 não faz um request para cada ficheiro, algumas “boas práticas” podem ser ignoradas.

Para verificar se o site suporta ou não HTTP/2 podemos usar esta tool. Basta inserir o url e clicar em Test.

teste-site-suporte-http2

Structured data

Os dados estruturados são uma forma de darmos uma “estrutura” aos dados que temos nas páginas do nosso site. Para isso devemos usar o vocabulário presente no projeto Schema, no formato JSON-LD. Isso ajuda os motores de busca a perceberem melhor os conteúdos da página e aumenta a possibilidade de mostrar resultados ricos na página de resultados, como este exemplo quando pesquisamos por “apple”:

apple-knowledge-graph

De forma a verificar se o site tem implementado algum markup de dados estruturados e se essa implementação está bem feita, podemos usar a ferramenta de testes desenvolvida pela Google. É necessário ter em atenção que essa análise é feita ao nível da página, portanto se pretendemos analisar a implementação em todo o site, devemos fazer esse processo para um url por cada grupo de páginas.

O Google desenvolveu uma ferramenta que nos ajuda a fazer os markups por página. Para isso basta escolher um tipo de página – artigo, página de produto, crítica de livros e etc – e fazer a marcação dos dados. Quando a marcação estiver feita, tem apenas que clicar em “CRIAR HTML” para obter os dados estruturados em formato HTML para ser implementado no código da página.

Paridade de Conteúdos em Mobile e Desktop

O Mobile First Index está aí! Muitos sites já receberam a notificação do Google a serem informados que foram migrados para mobile first índex. Hoje, mais do que nunca, é importante ter em atenção não só à experiência do utilizador em mobile, mas também a experiência dos bots do Google em mobile. É determinante que exista uma paridade de páginas e conteúdos nas versões do site em mobile e em desktop.

O que é importante analisar?

De forma a garantirmos uma consistência em termos de páginas e conteúdos do nosso site em mobile e desktop há dois fatores fundamentais:

  1. Todas as páginas que existam em desktop, devem também existir na versão mobile e vice-versa.
  2. O conteúdo dessas páginas deve ser exatamente o mesmo, em ambas as versões, ou seja, devemos garantir que temos os mesmos urls, títulos, descrições, headings, imagens, vídeos e conteúdo das páginas.

Como analisar?

Para fazermos essa análise devemos fazer dois crawls ao site no ScreamingFrog, um a utilizar o User Agent de desktop e outro a usar o User Agent de Smartphones. Depois disso, devemos fazer export para excel de ambos os crawls começar a analisar:

  1. O número de urls é o mesmo nas duas versões?
  2. Os urls identificados no crawl em desktop são os mesmos da versão mobile? E vice-versa? Quais são os urls que estão em falta em cada uma das versões?
  3. Nos urls que têm correspondente nas duas versões, como estamos ao nível de conteúdos? Isto é, existe uma paridade ao nível dos títulos, descrições, headings, imagens, vídeos e conteúdo das páginas?

Neste artigo da MOZ poderá encontrar informações mais detalhadas sobre como fazer esta análise.

Analisar Conteúdos Duplicados

A duplicação de conteúdos é um problema muito sério para a performance dos sites nos motores de busca. É muito comum a existência de títulos, descrições e headings duplicados no site. Devemos identificar essas situações e proceder à sua correção.

Como identificar conteúdos duplicados no Google Search Console

  1. Abrir o Google Search Console e selecionar a propriedade
  2. Clicar em Search Appearence
  3. Clicar em HTML improvements

Nesse relatório é possível identificar os campos que o Google marcou como duplicados.

Como identificar conteúdos duplicados Screaming Frog

O relatório do Google Search Console depende muito da forma como o Google faz crawl ao site. Pode haver situações, como as que foram descritas no inicio deste texto, em que o Google ainda não tenha feito crawl ou não tenha indexados certos urls, devido a isso, o Google não os identifica como duplicados no Google Search Console. Se confiarmos cegamente nessa métrica corremos o risco de ter muitas páginas duplicadas e não darmos por isso. De forma a mitigar esse fato, devemos procurar identificar conteúdos duplicados também em outras tools. Vou mostrar como se faz no ScreamingFrog:

  1. Abrir o ficheiro em excel do crawl feito anteriormente
  2. Selecionar a coluna do title
  3. Clicar em Formatação Condicional > Regras para realce de células e Duplicar Valores

Depois disso, basta fazer um filtro por Cor e temos, assim, acesso a todos os títulos duplicados. Essa análise deve ser feita também para as descrições e headings.

Analisar o tráfego orgânico

Analisar o tráfego proveniente dos motores de busca é muito importante no primeiro contacto com o site. Devemos olhar para o tráfego orgânico como um todo, de forma a conhecermos as tendências de tráfego, a sazonalidade do negócio e possíveis penalidades do Google que o site tenha sofrido. É importante que essa análise seja feita para diferentes períodos de tempo, de forma a facilitar a comparação entre eles. Devemos fazer uma comparação YoY (year over year) para os anos em que temos os dados disponíveis, bem como uma comparação WoW (week over week) para os últimos 12 meses. Assim será possível ter uma perceção geral do tráfego orgânico do site. Para executarmos essa análise devemos fazer o seguinte:

  1. Tendências, Sazonalidade e Penalidades – ir ao Google Analytics >> selecionar o segmento “Tráfego Orgânico” e fazer: Aquisição >> Todo o Tráfego >> Canais >> Selecionar o Canal Orgânico. Selecionar o intervalo de datas para os últimos 12 meses. Reparar na tendência de tráfego e verificar a tendência do tráfego. Nos momentos de queda, perceber se a queda está relacionada com a sazonalidade do negócio ou se o site foi penalizado pelo Google. Uma boa dica é ter um calendário com os feriados do mercado em que estamos a analisar destacados, bem como as datas em que o Google lançou update. Assim será fácil perceber se o site caiu por sazonalidade ou se foi apanhado por algum update do Google.
  2. Top Performing Pages: ir ao Google Analytics, selecionar o segmento “Tráfego Orgânico” e fazer: Comportamento >> Conteúdo do Site >> Página de Destino. Selecionar o intervalo de datas para os últimos 12 meses. Com esta análise é possível identificar as principais páginas do site em termos de tráfego orgânico. Tendo essa informação como base é possível priorizar o trabalho de otimização das páginas, por exemplo: podemos começar por otimizar as páginas do site que estejam no Top 20 de tráfego orgânico. Podemos também agrupar os urls por grupos de páginas (páginas de produto, artigos do blog, páginas de categoria e etc e identificar o volume de tráfego de cada um deles).

 

Canibalização de Palavras-Chave

Todos os sites, uns mais e outros menos, têm vários concorrentes no Google. A última coisa que nós queremos é que o nosso site esteja a competir com ele próprio nos resultados de pesquisa. Isso, apesar de ser um raciocínio simples, é, na verdade, um problema que acontece muitas vezes. Os sites estão sempre a criar novas páginas, e isso acontece, por vezes, sem ter em conta as páginas que já existentes. Como muitas vezes as páginas têm conteúdo muito parecido o Google posiciona-as para as mesmas palavras-chave.

Numa primeira análise é importante identificar as situações onde isso acontece e propor a sua correção. Para identificar basta ir a ao Ahrefs e fazer o download de todas as palavras-chave orgânicas do site. De seguida devemos abrir o ficheiro em excel, ordenar por palavras-chave e destacar os registos duplicados e depois filtrar por duplicados. Uma vez identificadas as palavras-chave que estão a ranquear no Google para mais do que uma página, devemos escolher a página que pretendemos que essa palavra-chave esteja associada e corrigir as outras páginas em que ela esteja a aparecer. Há duas situações comuns que geram problemas de canibalização de palavras-chave, em baixo apresento essas duas situações, bem como uma sugestão de correção.

  1. Utilização indevida da palavra-chave – imagine a caso de um site de e-commerce que venda equipamentos desportivos. Esse site tem duas páginas distintas (/bicicleta-de-crianças e /bicicleta-para-adultos). Agora imagine que na página /bicicleta-de-crianca temos o seguinte copy: “A bicicleta é indicada para crianças, sendo que esta bicicleta não deve ser usada por adultos”. O simples fato de mencionarmos na página o termo “adultos” num contexto em que estamos a falar de “bicicletas” pode fazer com que o Google passa a ranquear a página também para termos de pesquisa relacionados com “bicicletas para adultos”. Por mais estranho que possa parecer, situações parecidas acontecem muitas vezes. Tendo isso em conta, uma dica que eu dou nesses casos é: aproveitar a página para falar de todas as potencialidades do produto, dizer tudo o que temos de bom sobre esse produto, sem mencionar outros produtos ou termos relacionados com outros produtos que estejamos a comercializar no site.
  2. Dois ou mais artigos sobre o mesmo tópico – esta situação também acontece muitas vezes. Imagine que tem um blog sobre marketing. No fim do ano de 2016 publicou o artigo “Dicas criar sua estratégia de marketing em 2017” com o url /dicas-para-criar-sua-estrategia-de-marketing-em-2017. No fim de 2017 publica um novo artigo, agora “Dicas criar sua estratégia de marketing em 2018” com o url /dicas-para-criar-sua-estrategia-de-marketing-em-2018. Esses dois artigos estarão, certamente, a competir para os termos de pesquisa mais populares, tais como: “estratégias de marketing”, “como criar uma estratégia de marketing” e etc. Não faz sentido estarmos a competir com nós próprios. Para resolvermos situações parecidas com essa eu proponho consolidar os dois artigos num só, com as dicas mais úteis e atuais e criar um novo url “/estratégia-de-marketing” e, se necessário, fazer um redireccionamento dos artigos antigos para o novo. Esse url passa a ser uma componente que não deve ser mudada. O artigo pode agora ser atualizado todos os anos como pretende. Pode ter a referência do ano em questão no título, descrição e copy do artigo à vontade. Só não o deve ter no url. Assim, evita estar a competir no Google para as mesmas palavras-chave.

O blog do Ahrefs tem um artigo muito interessante sobre canibalização de palavras-chave.

Analisar backlinks

A importância dos backlinks (links de outros sites a apontar para o nosso) como fator de ranqueamento já não é a mesma de há uns anos atrás, isso é indiscutível, mas que ainda são um forte fator de ranqueamento isso ninguém duvida. Para falar deste tema eu teria que escrever outro artigo, portanto não vou entrar por aqui. Se por um lado ter bons links ajudam, e muito, no posicionamento do site nos motores de pesquisa, os maus links também influenciam, mas neste caso, negativamente.

Isso acontece, pois, o Google prejudica os sites que criaram muitos links spam. Nesta primeira análise ao site o que eu sugiro é que se identifique no Ahrefs todos os backlinks do site que tenham um Domain Rating inferior a 15 (são provavelmente spam ou links de baixo valor) e fazer uma análise detalhada a cada um desses urls. Podemos usar a extenção BULK URL OPENER para abrir vários urls ao mesmo tempo. O que queremos aqui é analisar a olho a qualidade do site que tem um link a apontar para nós. Tenho por hábito analisar se o site tem muita publicidade intrusiva, a posição do link na página (se é um link contextual ou se aparece numa posição menos favorável, como por exemplo no footer, entre outros fatores que chamam a atenção para links spam) e que se faça disavol a esses links no Google Search Console.

Esse conjunto de analises permite perceber como está a saúde do site e como ele está preparado para os desafios de SEO. Com base nos resultados de cada uma das análises é possível identificar pontos de melhoria, atribuir uma prioridade a cada um deles e atacar para melhorar o site.

Sou licenciado em Gestão de Empresas e estou a concluir o mestrado em Gestão de Informação na especialidade de Marketing Intelligence. Em termos profissionais, sou apaixonado por SEO e tenho tido a felicidade de contribuir com projetos desafiantes e ambiciosos. Tenho experiência como SEO Executive em ambiente de agência e SEO Analyst in-house. Neste momento dou o meu contributo como SEO Manager na Outsystems. O meu objetivo aqui na SEO Portugal é partilhar um pouco da minha experiência, de forma a criar uma cultura mais voltada para o SEO no mercado português.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *