Technical SEO: Os erros mais comuns e tão fáceis de resolver

Technical SEO erros mais comuns

O Technical SEO não é algo tão complicado depois que entendemos os básicos. Sim, ajuda se tivermos alguns conhecimentos – ainda que básicos – de HTML, php, java, etc…

Os nossos sites estão constantemente perante problemas técnicos que podem prejudicar a sua performance orgânica. As auditorias técnicas as sites devem ser feitas de forma constante e pró-activa. O Technical SEO base não precisa ir além de uns quantos crawls com o Screaming Frog.

Aqui pode ler como Como Fazer uma Auditoria de SEO !

Identificar erros de rastreamento com um relatório de rastreamento

Fazer um crawl, seja com o Screaming Frog, SemRush, AHREFS ou qualquer outro crawler, é o mínimo que se deve fazer a cada mês ou par de meses (sobretudo em sites com muitas páginas).

Ao fazer estes relatórios de forma periódica é possível ver e identificar os problemas técnicos mais urgentes de SEO, como conteúdo duplicado, baixa velocidade de carregamento página ou falta de tags H1 / H2.

É possível automatizar auditorias de site usando uma variedade de ferramentas de SEO e trabalhar com a lista de erros ou avisos criados pelo rastreamento. Essa é uma tarefa na qual se deve trabalhar mensalmente para manter o site sem erros – bem, pelo menos com o menor número possível – e o mais optimizado possível.

Erros de Technical SEO Mais Comuns

  • Conteúdo Duplicado

Vamos começar com a pedrada no charco: conteúdo duplicado! Ainda que conteúdo duplicado não pareça directamente um problema técnico, de facto, muitas vezes os problemas de duplicação têm origem técnica.

O conteúdo duplicado NÃO penaliza o site. Ou seja, o facto de ter muitas páginas duplicadas não prejudica o domínio, mas prejudica sim o alcance total das páginas que tem, uma

vez que o Google irá escolher uma página para indexar e eliminar todas as demais.

As causas mais comuns passam por falta de canonical tags, criação de muitas páginas de categorias ou tags.

Duplicação de Titles, Descriptions e H1 devem ser evitadas a todo o custo

  • Páginas sem H1

É mau ter páginas com o mesmo H1, mas é igualmente mau ter páginas sem H1. o H1 é o Título na página e cada página deverá estar devidamente identificada sobre o seu conteúdo

rastreio - erros técnicos de SEO
Estudo do SemRush – Clicar na imagem para ler artigo
  • Configuração Incorrecta do www

Na altura de configurar o seu domínio pode escolher apresentar as páginas com o subdomínio www. ou sem www. Não há penalização de usar uma ou outra forma, mas tenha a certeza que usa a mesma forma em todo o site e redirecciona a forma não usa

da para a que está activa.

O www. é considerado um subdomínio e por isso os URLs com e sem www. são vistos como páginas diferentes. Se apresentar o conteúdo nas duas versões o Google irá considerar isso duplicação de conteúdo.

Na Googlle Search Console pode ajudar o Google a entender a qual das versões deve ser dada prioridade.

  • Optimização das Imagens

Optimizar Imagens para SEO não é simplesmente ter ALT tags. O nome do ficheiro (e respectivo URL da imagem) devem estar optimizados. Mas isso é a parte de conteúdo. Tecnicamente falando, lembre-se que quase todos nós acedemos à net – cada vez mais – através de smartphones. Imagens muito pesadas e que demoram a carregar vão estragar a usabilidade e prejudicar na hora de ranquear.

  • Cadeia de Redireccionamentos

Criar redireccionamentos ajuda a não ter links quebrados no site. Porém, ao fim de alguns meses (anos?) encontramos situações onde o antigo URL A redirecciona para o B que agora redirecciona para C que por sua vez resolve em D. A isto chamamos cadeia de redireccionamentos e, como já deve estar a perceber, devem ser corrigidos.

Se A tem mesmo que ser redireccionado então deve ser redireccionado para D. E quanto a B? Bem, é mesmo neccessário manter B? Há backlinks para B? Há inlinks para B? Há alguma razão para manter B? Se sim, então B deve ser redireccionado para D, caso contrário podemos eliminar o redireccionamento.

Já agora falemos de loops! Ou seja, A redirecciona para B e B para C e C para A… o site nunca irá abrir. O Screaming Frog tem um relatório específico para estas situações. É fácil de encontrar estes problemas.

  • 404 – páginas não encontradas

Um dos piores erros que pode existir: uma página que não abre. Quando nosdeparamos com um 404 temos de perceber alguns pontos:

  1. Queremos mesmo que
  2.  esta página resolva 404? – Se sim, então devemos remover todos oos inlinks do nosso site;
  3. Este é um conteúdo que existiu mas foi removido de vez para nunca mais voltar? Se sim, talvez devessemos considerar aplicar um código 410 e remover todos os inlinks.
  4. Há uma outra página que pode responder aos interesses dos usuários e que substitua esta? Se sim, talvez devessemos redireccionar (301) ou mudar directamente os inlinks
  5. É uma página que está temporariamente fora do ar? Se sim, talvez possamos redireccionar (302) para uma página que responsa aos interesses do utilizador ou para a homepage.
  • Links internos com “nofollow”

Qual o interesse de ter links internos que não queremos que o Google não siga? Porquê não passar “juice” de uma página para outra? Bem, se realmente há uma razão, então bom trabalho. De outra forma, os inlinks devem ser todos “follow”.

Problemas SEO tecnico Sitemap
Clicar na imagem para ler “40 Erros Técnicos de SEO – Pesquisa da SEMrush”
  • Sitemap

O sitemap é fundamental para o Google descobrir todas as suas páginas e entender a estrutura do seu site. Além do mais, se dividir o seu sitemap por grupo de páginas poderá entender  que páginas o Google indexa melhor e quais o Google gosta menos.

Não tente contabilizar os ganhos de ter ou não um sitemap. Está a perder dinheiro enquanto tenta justificar o investimento. Se usa wordpress, veja aqui os melhores plugins para wordpress.

Ter páginas bloqueadas por robots.txt ou com tag no-index no sitemap não é boa prática.

Tenha a certeza que o Google encontra o seu sitemap e que ele está bem configurado.

  • HREFLANG

Para sites com versões em diferentes idiomas é nececssário ter as hreflang tags bem definidas. Tenha a certeza que as páginas apontam para as equivalentes em cada idioma. Seja em html ou no sitemap.

  • Robots.txt

Erros no ficheiro robots.txt podem causar problemas de indexação. Tenha a certeza que o seu ficheiro está correcto, no formato correcto, que o Google o consegue encontrar e que está submetido no Google Search Console.

Se tiver dúvidas, pode ler aqui como forçar o Google a fazer o crawl do site.

technical SEO - Problemas velocidade página
Clique na Imagem para ver o relatório do Semrush
  • Velocidade de carregamento da página

Uma página que demora mais de 3 ou 4 segundos a carregar/abrir é uma página que potencialmente irá trazer problemas aos seus utilizadores. Sobre a velocidade dos sites pode ler estes artigos:

  1. Como deixar um site em WordPress mais rápido
  2. SEO Mobile, Mobile Speed, AMP e PWA
  • Páginas AMP sem canonical tag

Este é um erro menos comum – até porque a implementação de AMP não é tão usual – mas serve para fechar esta lista não exaustiva de erros técnicos.

Queria ser Jornalista, mas fugi para o Marketing e dei por mim a trabalhar como SEO. Em agência ou in-house, já trabalhei com projectos do Spotify, Telepizza, Amazon, Hostelbookers, Hostelworld, 360imprimir ou EF Education First. Sonho um dia ainda voltar a Portugal e viver do Marketing Digital. Fundei a SEOPortugal para ajudar a divulgar o SEO e partilhar algum conhecimento.

Como Fazer uma Auditoria de SEO completa em 12 passos

o que e SEO

Saber como fazer uma auditoria de SEO é a grande diferença entre um excelente trabalho e um mau trabalho de análise de SEO. A importância do SEO no desenvolvimento das estratégias de Marketing e Vendas das empresas portuguesas tem vindo, finalmente, a aumentar.

O crescente número de oportunidades para SEO Managers e Specialists no LinkedIn e sites de emprego, bem como o crescimento da procura de consultores e profissionais freelancers de SEO é um reflexo disso mesmo. Entretanto, o mercado português é, ainda, escasso na oferta de profissionais qualificados e com experiência relevante nessa área, e a falta de investimento em SEO por parte das empresas no passado é, em parte, responsável por este cenário de falta de profissionais de SEO.

Quando se começa a trabalhar o canal orgânico de uma empresa, há certas análises que têm que ser feitas para que o profissional de SEO possa conhecer o site e com base nesse conhecimento definir a “to-do list” por ordem de prioridades e criar a estratégia de SEO da empresa.

Neste artigo vou apresentar uma forma simples, mas completa de como fazer uma auditoria de SEO. Vamos a isto!

Search Engine Crawl

Para quem não sabe como funciona os motores de busca, o crawl é a função mais básica e importante da web. O Google descobre os sites e páginas na internet ao seguir os links disponíveis e a função básica (e das mais importantes) dos profissionais de SEO é garantir que o Google consegue ter acesso a todas as páginas do site que queremos indexadas. Tendo em conta que o Google só consegue ler links no formato html <a href=” uri ” anchor</a>, devemos garantir que todos os links estão nesse formato e não num formato que o Google não valoriza, como em Javascript, por exemplo.

Como verificar se o Google consegue fazer Crawl a todo o site?

Uma forma simples de analisarmos se o Google consegue ou não fazer crawl a todo o site é:

  1. Fazer o crawl ao site com o ScreamingFrog – partindo do princípio que os urls descobertos por esta ferramenta serão os mesmo que os bots do Google conseguem descobrir. Fazer um filtro na coluna “Canonical Url” de forma a ficarmos apenas com a versão canonical dos urls.
  2. Ir ao Google Analytics e buscar o tráfego de todos os canais por página de destino: Comportamento >> Conteúdo do Site >> Página de Destino.
  3. No excel fazer uma fórmula vlookup, de maneira a identificar as páginas do site que têm tráfego no Analytics, mas que não existem no ScreamingFrog.

Com esta análise conseguimos identificar as páginas órfãs, isto é, as páginas para as quais temos tráfego de campanhas pagas, mas que não têm links internos no site.

Search Engine Indexing

Após fazer o crawl e identificar todas as páginas (que estão acessíveis por inlink) do site, o Google irá indexá-las e mostrá-las nos resultados de pesquisa, sempre que considerá-las relevantes para a pesquisa feita.

Uma tarefa importante nesta análise é fazer uma comparação entre o número de páginas existentes (páginas descobertas no crawl do ScreamingFrog) e o número de páginas indexadas. Se descobrirmos que o site tem um número elevado de páginas, mas apenas uma pequena percentagem delas está a ser indexada pelo Google, devemos identificar as causas e fazer sugestões de melhoria.

Como identificar o número de páginas indexadas no Google?

Para identificarmos o número de páginas que o site tem indexadas no Google devemos:

  1. Abrir o Google Search Console.
  2. Clicar em índice do Google e em seguida em Estado do Índice.

Teremos acesso a um quadro com o número de páginas indexadas no momento e em baixo consta um gráfico com a evolução do mesmo número nos últimos 90 dias.

paginas-indexadas-no-google-search-console

Sitemap

O sitemap.xml é um ficheiro que serve para dizermos ao Google todas as páginas do nosso site que nós queremos que sejam indexadas. Tendo em conta essa definição, é importante perceber, primeiro, que o conceito de “as páginas que nós queremos que sejam indexadas”, significa, acima de tudo, que deve constar todas as páginas que nós não estamos a dar sinal ao Google para não indexar.

Há várias formas de darmos sinal ao Google para não indexar uma página – usar a diretiva Noindex, bloquear a página no ficheiro robots.txt, fazer um redireccionamento 301 para outra página ou ter na página o canonical para outro url. Deve-se ter em atenção de não incluir essas páginas no sitemap, de forma a não mostrar uma mensagem inconsistente ao Google.

Depois de preparar o ficheiro sitemap.xml com todas as páginas que queremos que sejam indexadas, devemos testar e submeter o ficheiro no Google Search Console e esperar que o Google faça o crawl ao site e decida pelas páginas que irá indexar.

Importa referir que um sitemap tem um limite de urls de 50.000 urls por ficheiro, caso o número de urls do site ultrapasse esse limite, o ideal é criar vários ficheiros sitemap por tipo de páginas, por exemplo, um ficheiro para páginas de produto, outro para artigos do blog, outro para a homepage e páginas do footer, entre outras e agregar todos esses ficheiros num ficheiro Mãe, que agrupe todos os outros.

Mais informações neste link.

Robots.txt

O ficheiro robots.txt serve para que possamos dizer ao Google, e a outros motores de busca, como devem fazer o crawl e indexar as páginas do nosso site.

Um ficheiro robots.txt deve ter o seguinte formato:

User-agent: *

Disallow: / “uri das páginas ou folders que queremos bloquear o acesso aos robots”

Sitemap: http://www.exemplo.com/sitemap.xml

Depois de criado, o ficheiro robots.txt deve ser testado e submetido no Google Search Console. Neste guia do Google temos informações mais detalhadas sobre como deve ser criado o ficheiro.

HTTP Status Code

O crawl feito no ScreamingFrog no primeiro passo serve para identificar todos os urls do site. Cada um desses urls tem um HTTP Status Code associado. Tecnicamente, um status code é uma mensagem enviada pelo servidor quando o request feito pelo browser pôde ou não ser realizado. Quando está tudo ok com a página, o status code enviado ao browser é o 200, quando a página não foi encontrada é enviado o code 404, quando há um erro com o servidor é enviado o code 500 e quando o url direciona para outra página a mensagem enviada pelo servidor é o HTTP status code 301.

Este artigo do blog Yoast faz uma explicação detalhada sobre cada um desses HTTP status code. O que os profissionais de SEO devem ter em atenção é que o que queremos é que grande percentagem dos nossos urls enviem o código 200. Se tivermos 404 ou 500, devemos identificar as causas e propor soluções. Caso o site tenha muitas páginas com redireccionamento 301, devemos ver o que podemos fazer para minimizar essa situação, de forma a ter o site otimizado para melhor aproveitar o crawl budget.

PageSpeed e Análise da Performance

O Google já tinha confirmado no passado que o PageSpeed era muito importante em Desktop e veio agora esclarecer que também já é um fator de ranqueamento em mobile. Ignorar esse fato não é, certamente, uma boa solução. Sabendo disso, devemos tratar de analisar a performance do site e identificar pontos de melhoria. O PageSpeed Insights, GT Metrix, Pingdom e a extenção Lighthouse do Google são as ferramentas que eu aconselho a serem usadas nesta análise.

Como essa análise é feita por url, eu sugiro que se escolha um url para cada tipo de página – homepage, página de produto, página de categoria, entre outras – e que esse url seja analisado nas ferramentas. Para além de identificarem os principais problemas técnicos do site, as ferramentas também sugerem pontos de melhoria. Essa análise deve servir para ser a base de todo o trabalho técnico de SEO do site.

É necessário ter em atenção que as ferramentas sugeridas anteriormente trabalham tendo em conta o antigo protocolo web. Caso o site que se esteja a analisar tenha suporte para o novo protocolo HTTP/2, algumas das sugestões de melhoria deixam de ser necessárias, pois como o HTTP/2 não faz um request para cada ficheiro, algumas “boas práticas” podem ser ignoradas.

Para verificar se o site suporta ou não HTTP/2 podemos usar esta tool. Basta inserir o url e clicar em Test.

teste-site-suporte-http2

Structured data

Os dados estruturados são uma forma de darmos uma “estrutura” aos dados que temos nas páginas do nosso site. Para isso devemos usar o vocabulário presente no projeto Schema, no formato JSON-LD. Isso ajuda os motores de busca a perceberem melhor os conteúdos da página e aumenta a possibilidade de mostrar resultados ricos na página de resultados, como este exemplo quando pesquisamos por “apple”:

apple-knowledge-graph

De forma a verificar se o site tem implementado algum markup de dados estruturados e se essa implementação está bem feita, podemos usar a ferramenta de testes desenvolvida pela Google. É necessário ter em atenção que essa análise é feita ao nível da página, portanto se pretendemos analisar a implementação em todo o site, devemos fazer esse processo para um url por cada grupo de páginas.

O Google desenvolveu uma ferramenta que nos ajuda a fazer os markups por página. Para isso basta escolher um tipo de página – artigo, página de produto, crítica de livros e etc – e fazer a marcação dos dados. Quando a marcação estiver feita, tem apenas que clicar em “CRIAR HTML” para obter os dados estruturados em formato HTML para ser implementado no código da página.

Paridade de Conteúdos em Mobile e Desktop

O Mobile First Index está aí! Muitos sites já receberam a notificação do Google a serem informados que foram migrados para mobile first índex. Hoje, mais do que nunca, é importante ter em atenção não só à experiência do utilizador em mobile, mas também a experiência dos bots do Google em mobile. É determinante que exista uma paridade de páginas e conteúdos nas versões do site em mobile e em desktop.

O que é importante analisar?

De forma a garantirmos uma consistência em termos de páginas e conteúdos do nosso site em mobile e desktop há dois fatores fundamentais:

  1. Todas as páginas que existam em desktop, devem também existir na versão mobile e vice-versa.
  2. O conteúdo dessas páginas deve ser exatamente o mesmo, em ambas as versões, ou seja, devemos garantir que temos os mesmos urls, títulos, descrições, headings, imagens, vídeos e conteúdo das páginas.

Como analisar?

Para fazermos essa análise devemos fazer dois crawls ao site no ScreamingFrog, um a utilizar o User Agent de desktop e outro a usar o User Agent de Smartphones. Depois disso, devemos fazer export para excel de ambos os crawls começar a analisar:

  1. O número de urls é o mesmo nas duas versões?
  2. Os urls identificados no crawl em desktop são os mesmos da versão mobile? E vice-versa? Quais são os urls que estão em falta em cada uma das versões?
  3. Nos urls que têm correspondente nas duas versões, como estamos ao nível de conteúdos? Isto é, existe uma paridade ao nível dos títulos, descrições, headings, imagens, vídeos e conteúdo das páginas?

Neste artigo da MOZ poderá encontrar informações mais detalhadas sobre como fazer esta análise.

Analisar Conteúdos Duplicados

A duplicação de conteúdos é um problema muito sério para a performance dos sites nos motores de busca. É muito comum a existência de títulos, descrições e headings duplicados no site. Devemos identificar essas situações e proceder à sua correção.

Como identificar conteúdos duplicados no Google Search Console

  1. Abrir o Google Search Console e selecionar a propriedade
  2. Clicar em Search Appearence
  3. Clicar em HTML improvements

Nesse relatório é possível identificar os campos que o Google marcou como duplicados.

Como identificar conteúdos duplicados Screaming Frog

O relatório do Google Search Console depende muito da forma como o Google faz crawl ao site. Pode haver situações, como as que foram descritas no inicio deste texto, em que o Google ainda não tenha feito crawl ou não tenha indexados certos urls, devido a isso, o Google não os identifica como duplicados no Google Search Console. Se confiarmos cegamente nessa métrica corremos o risco de ter muitas páginas duplicadas e não darmos por isso. De forma a mitigar esse fato, devemos procurar identificar conteúdos duplicados também em outras tools. Vou mostrar como se faz no ScreamingFrog:

  1. Abrir o ficheiro em excel do crawl feito anteriormente
  2. Selecionar a coluna do title
  3. Clicar em Formatação Condicional > Regras para realce de células e Duplicar Valores

Depois disso, basta fazer um filtro por Cor e temos, assim, acesso a todos os títulos duplicados. Essa análise deve ser feita também para as descrições e headings.

Analisar o tráfego orgânico

Analisar o tráfego proveniente dos motores de busca é muito importante no primeiro contacto com o site. Devemos olhar para o tráfego orgânico como um todo, de forma a conhecermos as tendências de tráfego, a sazonalidade do negócio e possíveis penalidades do Google que o site tenha sofrido. É importante que essa análise seja feita para diferentes períodos de tempo, de forma a facilitar a comparação entre eles. Devemos fazer uma comparação YoY (year over year) para os anos em que temos os dados disponíveis, bem como uma comparação WoW (week over week) para os últimos 12 meses. Assim será possível ter uma perceção geral do tráfego orgânico do site. Para executarmos essa análise devemos fazer o seguinte:

  1. Tendências, Sazonalidade e Penalidades – ir ao Google Analytics >> selecionar o segmento “Tráfego Orgânico” e fazer: Aquisição >> Todo o Tráfego >> Canais >> Selecionar o Canal Orgânico. Selecionar o intervalo de datas para os últimos 12 meses. Reparar na tendência de tráfego e verificar a tendência do tráfego. Nos momentos de queda, perceber se a queda está relacionada com a sazonalidade do negócio ou se o site foi penalizado pelo Google. Uma boa dica é ter um calendário com os feriados do mercado em que estamos a analisar destacados, bem como as datas em que o Google lançou update. Assim será fácil perceber se o site caiu por sazonalidade ou se foi apanhado por algum update do Google.
  2. Top Performing Pages: ir ao Google Analytics, selecionar o segmento “Tráfego Orgânico” e fazer: Comportamento >> Conteúdo do Site >> Página de Destino. Selecionar o intervalo de datas para os últimos 12 meses. Com esta análise é possível identificar as principais páginas do site em termos de tráfego orgânico. Tendo essa informação como base é possível priorizar o trabalho de otimização das páginas, por exemplo: podemos começar por otimizar as páginas do site que estejam no Top 20 de tráfego orgânico. Podemos também agrupar os urls por grupos de páginas (páginas de produto, artigos do blog, páginas de categoria e etc e identificar o volume de tráfego de cada um deles).

 

Canibalização de Palavras-Chave

Todos os sites, uns mais e outros menos, têm vários concorrentes no Google. A última coisa que nós queremos é que o nosso site esteja a competir com ele próprio nos resultados de pesquisa. Isso, apesar de ser um raciocínio simples, é, na verdade, um problema que acontece muitas vezes. Os sites estão sempre a criar novas páginas, e isso acontece, por vezes, sem ter em conta as páginas que já existentes. Como muitas vezes as páginas têm conteúdo muito parecido o Google posiciona-as para as mesmas palavras-chave.

Numa primeira análise é importante identificar as situações onde isso acontece e propor a sua correção. Para identificar basta ir a ao Ahrefs e fazer o download de todas as palavras-chave orgânicas do site. De seguida devemos abrir o ficheiro em excel, ordenar por palavras-chave e destacar os registos duplicados e depois filtrar por duplicados. Uma vez identificadas as palavras-chave que estão a ranquear no Google para mais do que uma página, devemos escolher a página que pretendemos que essa palavra-chave esteja associada e corrigir as outras páginas em que ela esteja a aparecer. Há duas situações comuns que geram problemas de canibalização de palavras-chave, em baixo apresento essas duas situações, bem como uma sugestão de correção.

  1. Utilização indevida da palavra-chave – imagine a caso de um site de e-commerce que venda equipamentos desportivos. Esse site tem duas páginas distintas (/bicicleta-de-crianças e /bicicleta-para-adultos). Agora imagine que na página /bicicleta-de-crianca temos o seguinte copy: “A bicicleta é indicada para crianças, sendo que esta bicicleta não deve ser usada por adultos”. O simples fato de mencionarmos na página o termo “adultos” num contexto em que estamos a falar de “bicicletas” pode fazer com que o Google passa a ranquear a página também para termos de pesquisa relacionados com “bicicletas para adultos”. Por mais estranho que possa parecer, situações parecidas acontecem muitas vezes. Tendo isso em conta, uma dica que eu dou nesses casos é: aproveitar a página para falar de todas as potencialidades do produto, dizer tudo o que temos de bom sobre esse produto, sem mencionar outros produtos ou termos relacionados com outros produtos que estejamos a comercializar no site.
  2. Dois ou mais artigos sobre o mesmo tópico – esta situação também acontece muitas vezes. Imagine que tem um blog sobre marketing. No fim do ano de 2016 publicou o artigo “Dicas criar sua estratégia de marketing em 2017” com o url /dicas-para-criar-sua-estrategia-de-marketing-em-2017. No fim de 2017 publica um novo artigo, agora “Dicas criar sua estratégia de marketing em 2018” com o url /dicas-para-criar-sua-estrategia-de-marketing-em-2018. Esses dois artigos estarão, certamente, a competir para os termos de pesquisa mais populares, tais como: “estratégias de marketing”, “como criar uma estratégia de marketing” e etc. Não faz sentido estarmos a competir com nós próprios. Para resolvermos situações parecidas com essa eu proponho consolidar os dois artigos num só, com as dicas mais úteis e atuais e criar um novo url “/estratégia-de-marketing” e, se necessário, fazer um redireccionamento dos artigos antigos para o novo. Esse url passa a ser uma componente que não deve ser mudada. O artigo pode agora ser atualizado todos os anos como pretende. Pode ter a referência do ano em questão no título, descrição e copy do artigo à vontade. Só não o deve ter no url. Assim, evita estar a competir no Google para as mesmas palavras-chave.

O blog do Ahrefs tem um artigo muito interessante sobre canibalização de palavras-chave.

Analisar backlinks

A importância dos backlinks (links de outros sites a apontar para o nosso) como fator de ranqueamento já não é a mesma de há uns anos atrás, isso é indiscutível, mas que ainda são um forte fator de ranqueamento isso ninguém duvida. Para falar deste tema eu teria que escrever outro artigo, portanto não vou entrar por aqui. Se por um lado ter bons links ajudam, e muito, no posicionamento do site nos motores de pesquisa, os maus links também influenciam, mas neste caso, negativamente.

Isso acontece, pois, o Google prejudica os sites que criaram muitos links spam. Nesta primeira análise ao site o que eu sugiro é que se identifique no Ahrefs todos os backlinks do site que tenham um Domain Rating inferior a 15 (são provavelmente spam ou links de baixo valor) e fazer uma análise detalhada a cada um desses urls. Podemos usar a extenção BULK URL OPENER para abrir vários urls ao mesmo tempo. O que queremos aqui é analisar a olho a qualidade do site que tem um link a apontar para nós. Tenho por hábito analisar se o site tem muita publicidade intrusiva, a posição do link na página (se é um link contextual ou se aparece numa posição menos favorável, como por exemplo no footer, entre outros fatores que chamam a atenção para links spam) e que se faça disavol a esses links no Google Search Console.

Esse conjunto de analises permite perceber como está a saúde do site e como ele está preparado para os desafios de SEO. Com base nos resultados de cada uma das análises é possível identificar pontos de melhoria, atribuir uma prioridade a cada um deles e atacar para melhorar o site.

Sou licenciado em Gestão de Empresas e estou a concluir o mestrado em Gestão de Informação na especialidade de Marketing Intelligence. Em termos profissionais, sou apaixonado por SEO e tenho tido a felicidade de contribuir com projetos desafiantes e ambiciosos. Tenho experiência como SEO Executive em ambiente de agência e SEO Analyst in-house. Neste momento dou o meu contributo como SEO Manager na Outsystems. O meu objetivo aqui na SEO Portugal é partilhar um pouco da minha experiência, de forma a criar uma cultura mais voltada para o SEO no mercado português.

As 5 Melhores SEO Tools do Mercado

Esta é a pergunta que mais empresas fazem quando estão a querer crescer os canais orgânicos: Quais são as melhores SEO Tools disponíveis?

A SEO Portugal disponibiliza uma secção específica só sobre este tema onde é possível a nossa avaliação a cada uma das ferramentas: SEO TOOLS – TESTÁMOS AS MELHORES FERRAMENTAS

Apesar de poder parecer uma pergunta simples, não o é. A escolha de ferramentas para o dia-a-dia de qualquer SEO deve ser feita com base das necessidades da equipa ou do profissional e não esperando que a tool de SEO por si só resolva os problemas.

Diferentes ferramentas irão revelar diferentes dados. O melhor em qualquer SEO Audit, o melhor é sempre a conjugação de duas ou mais ferramentas. Só assim poderá confrontar dados e métricas.

Esta lista das melhores ferramentas de SEO deverá ser vista como um conselho de algumas ferramentas e softwares de SEO sem os quais dificilmente conseguirá avançar na sua estratégia de SEO.

5 Melhores Ferramentas de SEO 

O AHREFS tornou-se muito rapidamente numa das ferramentas mais importantes e mais completa para qualquer SEO. E não pára de crescer – o que dá ânimo acrescido para os clientes continuarem a pagar a subscrição, que pode ser mensal ou anual.

Com o AHREFS é possível fazer praticamente tudo. E por isso aparece no cimo desta tabela. Confirmar rankings, analisar backlinks, encontrar lacunas de conteúdo, correr um crawl no seu site ou no da concorrência para encontrar oportunidades… A utilização do AHREFS é quase ilimitada e são poucos os SEOs que usufruem de todas as funcionalidades desta tool.

O SemRush a par do AHREFS é das tools mais completas do mercado. De facto, estas duas ferramentas lutam pelo mesmo segmento e têm trabalhado nos mesmos serviços. A usabilidade do SemRush é um pouco melhor, mas esta ferramenta de SEO não permire, por exemplo, uma análise por URL.
Tenho sido desafiado a ter que escolher entre uma ou outra. A verdade é que nesta fase ainda não fui capaz de me desfazer de nenhuma delas.
O crawl do SemRush é super intuitivo e apresenta os resultados de uma forma brilhante. Ainda assim, limita o número de páginas que são corridas e não permite uma personalização do crawl tão profunda quanto o Screaming Frog.

  • Screaming Frog

O Screaming Frog é um software para fazer crawl aos websites e permite ter uma ideia de como o Google está a ler o seu site – ou o da concorrência. O nome é genial e fica no ouvido. Mas mais importante, depois de o começar a usar não irá conseguir parar.
O crawler permite encontrar links partidos, confirmar redireccionamentos, testar a consistência dos robots.txt…
Alguns utilizadores usam o próprio software para encontrar e filtrar os problemas. Mas a maioria faz o download do report para uma folha de Excel e trabalha a partir daí.
A funcionalidade de Extrair é relativamente desconhecida, mas é uma das muitas maravilhas que o software de SEO oferece, possibilitando a extracção de dados específicos (como data de publicação da página, por exemplo) para o relatório final.

  • Search Console (Webmaster tools)

Parece óbvio, mas de tão óbvio, às vezes o Webmaster Tools (tanto o do Google como o do Bing) tende a ser esquecido. A famosa Search Console do Google – agora com mais funcionalidades e um registo de 16 meses de dados – é um dos bens mais preciosos de qualquer SEO.
Analisar tendências e analisar a performance do site é quase impossível sem visitar todos os dias esta poderosa ferramenta de SEO que o Google coloca ao seu dispôr.
Muitos SEOs não a utilizam com a frequência que deveriam e outros há que esperam que a GSC seja a resposta para todos os problemas. A verdade estará algures no meio.

  • Google Analytics ou Adobe Omniture

Ter uma ferramenta de análise de visitas é fundamental. A Search Console poderá dar uma ideia das visitas orgânicas, mas não tem capacidade para lhe mostrar as visitas directas, as que vêm de Canais Pagos ou das Redes Sociais.
A análise diária do tráfego deveria ser parte integrante de qualquer manhã de um SEO. Quais as tendências? A tendência orgânica é a mesma vista nos outros canais? Que páginas ou grupo de páginas estão com melhor ou pior performance?
O Google Analytics é gratuito e de fácil instalação. O Adobe Omniture é pago e de instalação mais complexa. Um ou outro permitem fazer mais ou menos o mesmo. Em grande parte, o Omniture ainda não conseguiu provar o seu valor perante o Google Analytics.

Queria ser Jornalista, mas fugi para o Marketing e dei por mim a trabalhar como SEO. Em agência ou in-house, já trabalhei com projectos do Spotify, Telepizza, Amazon, Hostelbookers, Hostelworld, 360imprimir ou EF Education First. Sonho um dia ainda voltar a Portugal e viver do Marketing Digital. Fundei a SEOPortugal para ajudar a divulgar o SEO e partilhar algum conhecimento.