Como implementar Hreflang Tag

hreflang tag Holytrap

Hreflang tag é uma alternate, inserida no código html das páginas de um site ou nos sitemaps, para indicar ao Google que aquele conteúdo possui versões em diferentes idiomas e/ou para diferentes países.

Para aqueles que são mais meticulosos: 

hreflang não é tecnicamente uma tag, é um atributo. Mas é comum ser chamado de tag.

A sua utilização é importante para indicar qual o conteúdo mais adequado para Google em cada país ou, no caso de haver mais de uma língua oficial no país, qual a página correcta consoante o idioma do navegador.

Mesmo que não utilize hreflang tag é possível que o Google consiga perceber que página deve ser mostrada em cada um dos países. No entanto, em geral, é melhor indicar explicitamente as páginas específicas a idiomas ou regiões.

O Google explica neste vídeo como e quando implementar as hreflang tags:

Métodos para implementar hreflang tags

HTML

Adicione elementos ao cabeçalho da página para informar o Google sobre todas as variações de idioma e região de uma página. Isso será útil se você não tiver um sitemap ou não puder especificar cabeçalhos de resposta HTTP para o site.

Cada variação da página deve incluir um conjunto de elementos para cada variante da página, incluindo para ela mesma. O conjunto de links é idêntico para todas as versões da página.

<link rel=”alternate” hreflang=”lang_code” href=”url_of_page” />

Um exemplo de boa implementação das hreflang tag é o site da Holy Trap, um escape room no Algarve que procura atrair tráfego de Portugal, mas também do mercado inglês.

hreflang tag Holytrap

Cabeçalho HTTP

É possível retornar um cabeçalho HTTP com a resposta GET da página para informar o Google sobre todas as variantes de idioma e região de uma página. Isso é útil para arquivos não HTML, como PDFs.

Este é o formato do cabeçalho:

Link: <url1>; rel="alternate"; hreflang="lang_code_1", <url2>; rel="alternate"; hreflang="lang_code_2", ...

Sitemap

É possível usar um sitemap para informar o Google sobre todas as variantes de idioma e região de cada URL. Para fazer isso, adicione um elemento <loc> que especifique um único URL, com entradas filhas <xhtml:link> que listem todas as variantes de idioma/localidade da página, incluindo ela mesma. Assim, se você tiver três versões de uma página, o sitemap terá três entradas, cada uma com três entradas filhas idênticas.

Regras do sitemap:

  • Especifique o namespace xhtml da seguinte forma:
    xmlns:xhtml="http://www.w3.org/1999/xhtml"
  • Crie um elemento <url> separado para cada URL.
  • Cada elemento <url> precisa incluir um filho <loc> indicando o URL da página.
  • Cada elemento <url> precisa ter um elemento filho <xhtml:link rel="alternate" hreflang="supported_language-code"> que liste todas as versões alternativas da página, incluindo ela mesma.  A ordem desses elementos filhos <xhtml:link> não importa, mas mantê-los na mesma ordem facilita a verificação de erros.

Porque são as tags Hreflang tão importantes?

As tags do Hreflang ajudam os mecanismos de pesquisa a entender qual a versão do conteúdo é exibida para qual público-alvo.

Atenção:

hreflang é apenas uma directiva para o Google. Por vezes o Google entende que há outras páginas que melhor respondem ao utilizador e ignora a tag. Mas isso não significa que as hreflang não têm valor.

O Google já não confia tanto nos ccTLDs como o principal indicador de localização. Em vez disso, o motor de busca está tomar decisões sobre o fornecimento de conteúdo com base nas configurações do utilizador, do local e do idioma, aumentando assim a importância da tag Hreflang.

É também importante utilizar hreflang para evitar que o Google entenda conteúdos parecidos ou iguais como duplicados. Se há duas páginas semelhantes mas com target para países diferentes o Google deve ser avisado através destas tags.

Quais são os problemas mais comuns com tags Hreflang?

Ao longo dos anos, analisámos milhares de tags de Hreflang e, muitas vezes, vimos os mesmos tipos de erros.

Códigos Incorretos

Um dos problemas mais comuns é o uso de linguagem inventada ou códigos de país. Geralmente, os códigos oficiais são diferentes para o idioma e o país, portanto, as suas tags são diferentes.

Bons exemplos disso:

Sueco – não é SE-SE mas SV-SE. SV para Svenska, o nome da língua sueca
Japonês – não é JP-JP mas JA-JP para japonês
O Reino Unido – O código oficial do país para o Reino Unido é GB não no Reino Unido, portanto o código correto é EN-GB não EN-UK.
Você não precisa se lembrar desses códigos, pois pode encontrar facilmente uma lista dos dois tipos de código on-line:

http://en.wikipedia.org/wiki/List_of_ISO_639-1_codes
Os códigos de país estão aqui: http://en.wikipedia.org/wiki/ISO_3166-1_alpha-2

Tag Hreflang de auto-referência ausente

Ao listar todas as tags do Hreflang, seja na página ou no arquivo do sitemap, inclua uma tag no idioma actual. Portanto, se você estiver a fornecer tags Hreflang de uma página ou sitemap alemão, certifique-se de que há um Hreflang alemão e as dos outros mercados.

Conflitos com tags canônicas

Certifique-se de que a tag de auto-referência usa o mesmo URL da tag canónica (canonical tag) na página ao adicionar Hreflang tag. Se as duas tags entrarem em conflicto, isso apenas confundirá os mecanismos de busca.

URLs de tags do Hreflang que não estão correctas

Pode ser um URL que redirecciona ou uma página que não está mais activa. Fazer um crawl com o ScreamingFrog é suficiente para encontrar esses problemas.

A análise de erros das hreflang tags fazem parte de qualquer análise de SEO técnico.

Veja aqui como fazer uma Auditoria SEO, passo por passo.

Robots.txt : O que são e como criar

Exemplo robots txt

O arquivo robots.txt fica na raiz de qualquer site e pode ser encontrado em www.example.com/robots.txt. O robots.txt é um arquivo de texto simples que segue o Protocolo de exclusão de robôs. Um arquivo robots.txt é constituído por uma ou mais regras. Cada regra bloqueia (ou permite) o acesso de um determinado rastreador a um caminho de arquivo (página ou pasta) especificado no site.

O robots.txt é uma parte frequentemente esquecida em SEO e nas auditorias técnicas. Mesmo sendo uma parte importante de qualquer conjunto de ferramentas de SEO.

Exemplo robots txt

Este ficheiro pode ser usado para diversos fins, desde que os mecanismos de pesquisa saibam onde ir para localizar o sitemap dos seus sites até que páginas rastrear e indexar e não rastrear. Além de ser uma óptima ferramenta para gerir o crawl budget de sites.

Por exemplo, se tiver páginas duplicadas ou páginas desactualizadas e queira que o Google não aceda a uma delas.

Crawl Budget

O crawl budget ou orçamento do rastreamento é o método que o Google usa para rastrear e indexar as páginas dos sites com eficiência. Por maior que seja o Google, o motor de busca ainda têm um número limitado de recursos disponíveis para rastrear e indexar o conteúdo de seus sites.

Especialmente se tiver um site com muito conteúdo fornecido em javascript.

Se o seu site for grande como um site de comércio eletrónico, por exemplo, e você tiver milhares de páginas com muitos URLs gerados automaticamente, o Google poderá não rastrear todas essas páginas e você perderá muita oportunidade de tráfego e de visibilidade.

O Google já confirmou que ter muitos URLs de baixo valor pode afectar negativamente o rastreamento e a indexação de um site. É aí que ter um arquivo robots.txt pode ajudar com os factores que afectam o orçamento de rastreamento de sites.

Analisar o robots.txt é fundamental numa auditoria de SEO.

Você pode usar o arquivo para ajudar a gerir o crawl budget, certificando-se de que os mecanismos de pesquisa estejam gastando o seu tempo no site da maneira mais eficiente possível (especialmente se você tiver um site grande) e rastreando apenas as páginas importantes sem perder tempo páginas como login, inscrição ou páginas de agradecimento.

Porque precisa do robots.txt?

Antes que um robot como o Googlebot, Bingbot, etc. rastreie uma página da Web, primeiro ele verifica se existe, de facto, um arquivo robots.txt e, se houver, geralmente respeitará as instruções encontradas nesse arquivo.

Um arquivo robots.txt pode ser uma ferramenta poderosa para SEO, pois é uma óptima maneira de controlar como os rastreadores/bots de motores de busca acedem determinadas áreas do site. Lembre-se de que precisa entender como o arquivo robots.txt funciona ou acidentalmente poderá bloquear o Googlebot ou qualquer outro bot e eles não serão capazes de rastrear todo o seu site. Isos fará com que possa não encontrar o seu site nos resultados de pesquisa.

Quando feito correctamente, é possível controlar coisas como:

  • Bloqueio de acesso a secções inteiras do seu site (ambiente de desenvolvimento e armazenamento, etc.)
  • Impedir que as páginas internas de resultados de pesquisa dos seus sites sejam rastreadas, indexadas ou exibidas nos resultados de pesquisa.
  • Especificar a localização do seu sitemap ou sitemaps
  • Optimizar o orçamento de rastreamento, bloquear o acesso a páginas de baixo valor (login, obrigado, carrinhos de compras, etc.)
  • Impedir que determinados arquivos (imagens, PDFs, etc.) sejam indexados

Exemplos de Robots.txt

Seguem-se alguns exemplos de como pode usar o arquivo robots.txt no seu site.

  1. Permitir que todos os rastreadores/robots da web acessem todo o conteúdo do site:
User-agent: *
Disallow:

Bloquear todos os rastreadores / bots da Web de todo o conteúdo do site:

User-agent: *
Disallow: /

É muito fácil cometer um erro ao criar os robots.txt do seu site, pois a diferença de bloquear todo o seu site e de o seu site ser visto é uma simples barra invertida.

Bloqueio de rastreadores / bots da Web específicos de uma pasta específica:

User-agent: Googlebot
Disallow: /

Bloqueio de rastreadores / bots da web de uma página específica do seu site:

User-agent: 
Disallow: /cart.html

Exclua todos os robôs de parte do servidor:

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /junk/

Para confirmar que os robots.txt estão bem construídos, que as páginas que deseja bloquear estão realmente bloqueadas, pode utilizar a Google Search Console e testar página por página.

O Google fornece ainda um guia de especificações do robots.txt que pode ajudar a melhor entender como o Google lida com o arquivo.

O tamanho máximo do arquivo robots.txt – para o Google – é de 500 KB, por isso é importante estar atento do tamanho do arquivo robots.txt.

Como criar um arquivo robots.txt

Criar um arquivo robots.txt para o seu site é um processo bastante simples, mas também é fácil cometer um erro. Não deixe que isso o desencoraje de criar ou modificar um arquivo de robôs.

Este artigo do Google orienta você pelo processo de criação de arquivos robots.txt e deve ajudá-lo a obter uma criação confortável

Melhores práticas para construir robots.txt:

  1. Certifique-se de que todas as páginas importantes sejam rastreáveis e que o conteúdo que não forneça qualquer valor real seja bloqueado.
  2. Não bloqueie recursos JavaScript e arquivos CSS
  3. Faça sempre uma rápida verificação do seu arquivo para se certificar de que nada mudou por acidente
  4. Coloque o arquivo robots.txt no directório raiz do seu site para que ele seja encontrado
  5. O arquivo Robots.txt faz distinção entre maiúsculas e minúsculas, o arquivo deve ser chamado de “robots.txt” (sem outras variações)
  6. Não use o arquivo robots.txt para ocultar informações privadas do utilizador, pois elas estarão visíveis
  7. Adicione o local do sitemaps ao seu arquivo robots.txt.
  8. Verifique se você não está a bloquear nenhum conteúdo ou secções do seu website que você deseja que o Google encontre

Erros comuns nos robots.txt

“indexada, mas bloqueada pelo robots.txt”! O sitemap contém urls bloqueados pelo arquivo robots.txt. Este é dos erros mais comuns que encontramos nos alertas do Google Serach Console.

Este erro acontece quando nos sitemaps está uma página que estamos a bloquear nos robots.txt. Basicamente, estamos a pedir no sitemap que o Google leia uma página ao mesmo tempo que estamos a dizer ao Google -a través do arquivo robots.txt – que não pode aceder àquela página.

Este erro acontece muitas vezes em sites que utilizam wordpress ou blogs que utilizar plugins que disparam sitemaps para páginas de tags e categorias.

Para corrigir basta decidir se retira as páginas do sitemap ou se, de facto, elas não deveriam estar a ser bloqueadas pelo robots.txt.

Usar o Screaming Frog – uma das principais ferramentas de SEO – ajudará a encontrar páginas erradamente bloqueadas.

 

Technical SEO: Os erros mais comuns e tão fáceis de resolver

Technical SEO erros mais comuns

O Technical SEO não é algo tão complicado depois que entendemos os básicos. Sim, ajuda se tivermos alguns conhecimentos – ainda que básicos – de HTML, php, java, etc…

Os nossos sites estão constantemente perante problemas técnicos que podem prejudicar a sua performance orgânica.

As auditorias técnicas as sites devem ser feitas de forma constante e pró-activa.

O Technical SEO base não precisa ir além de uns quantos crawls com o Screaming Frog.

Aqui pode ler como Como Fazer uma Auditoria de SEO !

Identificar erros de rastreamento com um relatório de rastreamento

Fazer um crawl, seja com o Screaming Frog, SemRush, AHREFS ou qualquer outro crawler, é o mínimo que se deve fazer a cada mês ou par de meses (sobretudo em sites com muitas páginas).

Ao fazer estes relatórios de forma periódica é possível ver e identificar os problemas técnicos mais urgentes de SEO, como conteúdo duplicado, baixa velocidade de carregamento página ou falta de tags H1 / H2.

É possível automatizar auditorias de site usando uma variedade de ferramentas de SEO e trabalhar com a lista de erros ou avisos criados pelo rastreamento.

Essa é uma tarefa na qual se deve trabalhar mensalmente para manter o site sem erros – bem, pelo menos com o menor número possível – e o mais optimizado possível.

Erros de Technical SEO Mais Comuns

  • Conteúdo Duplicado

Vamos começar com a pedrada no charco: conteúdo duplicado! Ainda que conteúdo duplicado não pareça directamente um problema técnico, de facto, muitas vezes os problemas de duplicação têm origem técnica.

O conteúdo duplicado NÃO penaliza o site.

Ou seja, o facto de ter muitas páginas duplicadas não prejudica o domínio, mas prejudica sim o alcance total das páginas que tem, uma vez que o Google irá escolher uma página para indexar e eliminar todas as demais.

As causas mais comuns passam por falta de canonical tags, criação de muitas páginas de categorias ou tags.

Duplicação de Titles, Descriptions e H1 devem ser evitadas a todo o custo

  • Páginas sem H1

É mau ter páginas com o mesmo H1, mas é igualmente mau ter páginas sem H1. o H1 é o Título na página e cada página deverá estar devidamente identificada sobre o seu conteúdo

rastreio - erros técnicos de SEO
Estudo do SemRush – Clicar na imagem para ler artigo
  • Configuração Incorrecta do www

Na altura de configurar o seu domínio pode escolher apresentar as páginas com o subdomínio www. ou sem www.

Não há penalização de usar uma ou outra forma, mas tenha a certeza que usa a mesma forma em todo o site e redirecciona a forma não usa

da para a que está activa.

O www. é considerado um subdomínio e por isso os URLs com e sem www. são vistos como páginas diferentes.

Se apresentar o conteúdo nas duas versões o Google irá considerar isso duplicação de conteúdo.

Na Googlle Search Console pode ajudar o Google a entender a qual das versões deve ser dada prioridade.

  • Optimização das Imagens

Optimizar Imagens para SEO não é simplesmente ter ALT tags. O nome do ficheiro (e respectivo URL da imagem) devem estar optimizados.

Mas isso é a parte de conteúdo. Tecnicamente falando, lembre-se que quase todos nós acedemos à net – cada vez mais – através de smartphones.

Imagens muito pesadas e que demoram a carregar vão estragar a usabilidade e prejudicar na hora de ranquear.

  • Cadeia de Redireccionamentos

Criar redireccionamentos ajuda a não ter links quebrados no site. Porém, ao fim de alguns meses (anos?) encontramos situações onde o antigo URL A redirecciona para o B que agora redirecciona para C que por sua vez resolve em D.

A isto chamamos cadeia de redireccionamentos e, como já deve estar a perceber, devem ser corrigidos.

Se A tem mesmo que ser redireccionado então deve ser redireccionado para D. E quanto a B? Bem, é mesmo neccessário manter B? Há backlinks para B? Há inlinks para B? Há alguma razão para manter B?

Se sim, então B deve ser redireccionado para D, caso contrário podemos eliminar o redireccionamento.

Já agora falemos de loops!

Ou seja, A redirecciona para B e B para C e C para A… o site nunca irá abrir. O Screaming Frog tem um relatório específico para estas situações.

É fácil de encontrar estes problemas.

  • 404 – páginas não encontradas

Um dos piores erros que pode existir: uma página que não abre. Quando nosdeparamos com um 404 temos de perceber alguns pontos:

  1. Queremos mesmo que
  2.  esta página resolva 404? – Se sim, então devemos remover todos oos inlinks do nosso site;
  3. Este é um conteúdo que existiu mas foi removido de vez para nunca mais voltar? Se sim, talvez devessemos considerar aplicar um código 410 e remover todos os inlinks.
  4. Há uma outra página que pode responder aos interesses dos usuários e que substitua esta? Se sim, talvez devessemos redireccionar (301) ou mudar directamente os inlinks
  5. É uma página que está temporariamente fora do ar? Se sim, talvez possamos redireccionar (302) para uma página que responsa aos interesses do utilizador ou para a homepage.
  • Links internos com “nofollow”

Qual o interesse de ter links internos que não queremos que o Google não siga?

Porquê não passar “juice” de uma página para outra? Bem, se realmente há uma razão, então bom trabalho.

De outra forma, os inlinks devem ser todos “follow”.

Problemas SEO tecnico Sitemap
Clicar na imagem para ler “40 Erros Técnicos de SEO – Pesquisa da SEMrush”
  • Sitemap

O sitemap é fundamental para o Google descobrir todas as suas páginas e entender a estrutura do seu site.

Além do mais, se dividir o seu sitemap por grupo de páginas poderá entender  que páginas o Google indexa melhor e quais o Google gosta menos.

Não tente contabilizar os ganhos de ter ou não um sitemap. Está a perder dinheiro enquanto tenta justificar o investimento. Se usa wordpress, veja aqui os melhores plugins para wordpress.

Ter páginas bloqueadas por robots.txt ou com tag no-index no sitemap não é boa prática.

Tenha a certeza que o Google encontra o seu sitemap e que ele está bem configurado.

  • HREFLANG

Para sites com versões em diferentes idiomas é nececssário ter as hreflang tags bem definidas. Tenha a certeza que as páginas apontam para as equivalentes em cada idioma. Seja em html ou no sitemap.

Erros no ficheiro robots.txt podem causar problemas de indexação. Tenha a certeza que o seu ficheiro está correcto, no formato correcto, que o Google o consegue encontrar e que está submetido no Google Search Console.

Se tiver dúvidas, pode ler aqui como forçar o Google a fazer o crawl do site.

technical SEO - Problemas velocidade página
Clique na Imagem para ver o relatório do Semrush
  • Velocidade de carregamento da página

Uma página que demora mais de 3 ou 4 segundos a carregar/abrir é uma página que potencialmente irá trazer problemas aos seus utilizadores. Sobre a velocidade dos sites pode ler estes artigos:

  1. Como deixar um site em WordPress mais rápido
  2. SEO Mobile, Mobile Speed, AMP e PWA
  • Páginas AMP sem canonical tag

Este é um erro menos comum – até porque a implementação de AMP não é tão usual – mas serve para fechar esta lista não exaustiva de erros técnicos.

Auditoria de SEO completa em 12 passos

o que e SEO

Saber como fazer uma auditoria de SEO é a grande diferença entre um excelente trabalho e um mau trabalho de análise de SEO.

A importância do SEO no desenvolvimento das estratégias de Marketing e Vendas das empresas portuguesas tem vindo, finalmente, a aumentar.

Para uma auditoria gratuita ao seu site ou blog visite a nossa Página de Auditoria SEO Grátis

O crescente número de oportunidades para SEO Managers e Specialists no LinkedIn e sites de emprego, bem como o crescimento da procura de consultores e profissionais freelancers de SEO é um reflexo disso mesmo.

Entretanto, o mercado português é, ainda, escasso na oferta de profissionais qualificados e com experiência relevante nessa área, e a falta de investimento em SEO por parte das empresas no passado é, em parte, responsável por este cenário de falta de profissionais de SEO.

Quando se começa a trabalhar o canal orgânico de uma empresa, há certas análises que têm que ser feitas para que o profissional de SEO possa conhecer o site e com base nesse conhecimento definir a “to-do list” por ordem de prioridades e criar a estratégia de SEO da empresa.

São também necessárias algumas ferramentas de SEO.

Neste artigo vou apresentar uma forma simples, mas completa de como fazer uma auditoria de SEO. Vamos a isto!

Search Engine Crawl

Para quem não sabe como funciona os motores de busca, o crawl é a função mais básica e importante da web.

O Google descobre os sites e páginas na internet ao seguir os links disponíveis e a função básica (e das mais importantes) dos profissionais de SEO é garantir que o Google consegue ter acesso a todas as páginas do site que queremos indexadas.

Tendo em conta que o Google só consegue ler links no formato html <a href=” uri ” anchor</a>, devemos garantir que todos os links estão nesse formato e não num formato que o Google não valoriza, como em Javascript, por exemplo.

Como verificar se o Google consegue fazer Crawl a todo o site?

Uma forma simples de analisarmos se o Google consegue ou não fazer crawl a todo o site é:

  1. Fazer o crawl ao site com o ScreamingFrog – partindo do princípio que os urls descobertos por esta ferramenta serão os mesmo que os bots do Google conseguem descobrir. Fazer um filtro na coluna “Canonical Url” de forma a ficarmos apenas com a versão canonical dos urls.
  2. Ir ao Google Analytics e buscar o tráfego de todos os canais por página de destino: Comportamento >> Conteúdo do Site >> Página de Destino.
  3. No excel fazer uma fórmula vlookup, de maneira a identificar as páginas do site que têm tráfego no Analytics, mas que não existem no ScreamingFrog.

Com esta análise conseguimos identificar as páginas órfãs, isto é, as páginas para as quais temos tráfego de campanhas pagas, mas que não têm links internos no site.

Search Engine Indexing

Após fazer o crawl e identificar todas as páginas (que estão acessíveis por inlink) do site, o Google irá indexá-las e mostrá-las nos resultados de pesquisa, sempre que considerá-las relevantes para a pesquisa feita.

Uma tarefa importante nesta análise é fazer uma comparação entre o número de páginas existentes (páginas descobertas no crawl do ScreamingFrog) e o número de páginas indexadas.

Se descobrirmos que o site tem um número elevado de páginas, mas apenas uma pequena percentagem delas está a ser indexada pelo Google, devemos identificar as causas e fazer sugestões de melhoria.

Como identificar o número de páginas indexadas no Google?

Para identificarmos o número de páginas que o site tem indexadas no Google devemos:

  1. Abrir o Google Search Console.
  2. Clicar em índice do Google e em seguida em Estado do Índice.

Teremos acesso a um quadro com o número de páginas indexadas no momento e em baixo consta um gráfico com a evolução do mesmo número nos últimos 90 dias.

paginas-indexadas-no-google-search-console

Sitemap

O sitemap.xml é um ficheiro que serve para dizermos ao Google todas as páginas do nosso site que nós queremos que sejam indexadas.

Tendo em conta essa definição, é importante perceber, primeiro, que o conceito de “as páginas que nós queremos que sejam indexadas”, significa, acima de tudo, que deve constar todas as páginas que nós não estamos a dar sinal ao Google para não indexar.

Há várias formas de darmos sinal ao Google para não indexar uma página – usar a diretiva Noindex, bloquear a página no ficheiro robots.txt, fazer um redireccionamento 301 para outra página ou ter na página o canonical para outro url.

Deve-se ter em atenção de não incluir essas páginas no sitemap, de forma a não mostrar uma mensagem inconsistente ao Google.

Depois de preparar o ficheiro sitemap.xml com todas as páginas que queremos que sejam indexadas, devemos testar e submeter o ficheiro no Google Search Console e esperar que o Google faça o crawl ao site e decida pelas páginas que irá indexar.

Importa referir que um sitemap tem um limite de urls de 50.000 urls por ficheiro, caso o número de urls do site ultrapasse esse limite, o ideal é criar vários ficheiros sitemap por tipo de páginas, por exemplo, um ficheiro para páginas de produto, outro para artigos do blog, outro para a homepage e páginas do footer, entre outras e agregar todos esses ficheiros num ficheiro Mãe, que agrupe todos os outros.

Mais informações neste link.

Robots.txt

O ficheiro robots.txt serve para que possamos dizer ao Google, e a outros motores de busca, como devem fazer o crawl e indexar as páginas do nosso site.

Um ficheiro robots.txt deve ter o seguinte formato:

User-agent: *

Disallow: / “uri das páginas ou folders que queremos bloquear o acesso aos robots”

Sitemap: http://www.exemplo.com/sitemap.xml

Depois de criado, o ficheiro robots.txt deve ser testado e submetido no Google Search Console. Neste guia do Google temos informações mais detalhadas sobre como deve ser criado o ficheiro.

HTTP Status Code

O crawl feito no ScreamingFrog no primeiro passo serve para identificar todos os urls do site.

Cada um desses urls tem um HTTP Status Code associado. Tecnicamente, um status code é uma mensagem enviada pelo servidor quando o request feito pelo browser pôde ou não ser realizado.

Quando está tudo ok com a página, o status code enviado ao browser é o 200, quando a página não foi encontrada é enviado o code 404, quando há um erro com o servidor é enviado o code 500 e quando o url direciona para outra página a mensagem enviada pelo servidor é o HTTP status code 301.

Este artigo do blog Yoast faz uma explicação detalhada sobre cada um desses HTTP status code.

O que os profissionais de SEO devem ter em atenção é que o que queremos é que grande percentagem dos nossos urls enviem o código 200.

Se tivermos 404 ou 500, devemos identificar as causas e propor soluções. Caso o site tenha muitas páginas com redireccionamento 301, devemos ver o que podemos fazer para minimizar essa situação, de forma a ter o site otimizado para melhor aproveitar o crawl budget.

PageSpeed e Análise da Performance

O Google já tinha confirmado no passado que o PageSpeed era muito importante em Desktop e veio agora esclarecer que também já é um fator de ranqueamento em mobile.

Ignorar esse fato não é, certamente, uma boa solução. Sabendo disso, devemos tratar de analisar a performance do site e identificar pontos de melhoria.

O PageSpeed Insights, GT Metrix, Pingdom e a extenção Lighthouse do Google são as ferramentas que eu aconselho a serem usadas nesta análise.

Como essa análise é feita por url, eu sugiro que se escolha um url para cada tipo de página – homepage, página de produto, página de categoria, entre outras – e que esse url seja analisado nas ferramentas.

Para além de identificarem os principais problemas técnicos do site, as ferramentas também sugerem pontos de melhoria. Essa análise deve servir para ser a base de todo o trabalho técnico de SEO do site.

É necessário ter em atenção que as ferramentas sugeridas anteriormente trabalham tendo em conta o antigo protocolo web.

Caso o site que se esteja a analisar tenha suporte para o novo protocolo HTTP/2, algumas das sugestões de melhoria deixam de ser necessárias, pois como o HTTP/2 não faz um request para cada ficheiro, algumas “boas práticas” podem ser ignoradas.

Para verificar se o site suporta ou não HTTP/2 podemos usar esta tool. Basta inserir o url e clicar em Test.

teste-site-suporte-http2

Structured data

Os dados estruturados são uma forma de darmos uma “estrutura” aos dados que temos nas páginas do nosso site. Para isso devemos usar o vocabulário presente no projeto Schema, no formato JSON-LD.

Isso ajuda os motores de busca a perceberem melhor os conteúdos da página e aumenta a possibilidade de mostrar resultados ricos na página de resultados, como este exemplo quando pesquisamos por “apple”:

apple-knowledge-graph

De forma a verificar se o site tem implementado algum markup de dados estruturados e se essa implementação está bem feita, podemos usar a ferramenta de testes desenvolvida pela Google.

É necessário ter em atenção que essa análise é feita ao nível da página, portanto se pretendemos analisar a implementação em todo o site, devemos fazer esse processo para um url por cada grupo de páginas.

O Google desenvolveu uma ferramenta que nos ajuda a fazer os markups por página.

Para isso basta escolher um tipo de página – artigo, página de produto, crítica de livros e etc – e fazer a marcação dos dados.

Quando a marcação estiver feita, tem apenas que clicar em “CRIAR HTML” para obter os dados estruturados em formato HTML para ser implementado no código da página.

Paridade de Conteúdos em Mobile e Desktop

O Mobile First Index está aí! Muitos sites já receberam a notificação do Google a serem informados que foram migrados para mobile first índex.

Hoje, mais do que nunca, é importante ter em atenção não só à experiência do utilizador em mobile, mas também a experiência dos bots do Google em mobile.

É determinante que exista uma paridade de páginas e conteúdos nas versões do site em mobile e em desktop.

O que é importante analisar?

De forma a garantirmos uma consistência em termos de páginas e conteúdos do nosso site em mobile e desktop há dois fatores fundamentais:

  1. Todas as páginas que existam em desktop, devem também existir na versão mobile e vice-versa.
  2. O conteúdo dessas páginas deve ser exatamente o mesmo, em ambas as versões, ou seja, devemos garantir que temos os mesmos urls, títulos, descrições, headings, imagens, vídeos e conteúdo das páginas.

Como analisar?

Para fazermos essa análise devemos fazer dois crawls ao site no ScreamingFrog, um a utilizar o User Agent de desktop e outro a usar o User Agent de Smartphones. Depois disso, devemos fazer export para excel de ambos os crawls começar a analisar:

  1. O número de urls é o mesmo nas duas versões?
  2. Os urls identificados no crawl em desktop são os mesmos da versão mobile? E vice-versa? Quais são os urls que estão em falta em cada uma das versões?
  3. Nos urls que têm correspondente nas duas versões, como estamos ao nível de conteúdos? Isto é, existe uma paridade ao nível dos títulos, descrições, headings, imagens, vídeos e conteúdo das páginas?

Neste artigo da MOZ poderá encontrar informações mais detalhadas sobre como fazer esta análise.

Analisar Conteúdos Duplicados

A duplicação de conteúdos é um problema muito sério para a performance dos sites nos motores de busca.

É muito comum a existência de títulos, descrições e headings duplicados no site. Devemos identificar essas situações e proceder à sua correção.

Como identificar conteúdos duplicados no Google Search Console

  1. Abrir o Google Search Console e selecionar a propriedade
  2. Clicar em Search Appearence
  3. Clicar em HTML improvements

Nesse relatório é possível identificar os campos que o Google marcou como duplicados.

Como identificar conteúdos duplicados Screaming Frog

O relatório do Google Search Console depende muito da forma como o Google faz crawl ao site.

Pode haver situações, como as que foram descritas no inicio deste texto, em que o Google ainda não tenha feito crawl ou não tenha indexados certos urls, devido a isso, o Google não os identifica como duplicados no Google Search Console.

Se confiarmos cegamente nessa métrica corremos o risco de ter muitas páginas duplicadas e não darmos por isso. De forma a mitigar esse fato, devemos procurar identificar conteúdos duplicados também em outras tools. Vou mostrar como se faz no ScreamingFrog:

  1. Abrir o ficheiro em excel do crawl feito anteriormente
  2. Selecionar a coluna do title
  3. Clicar em Formatação Condicional > Regras para realce de células e Duplicar Valores

Depois disso, basta fazer um filtro por Cor e temos, assim, acesso a todos os títulos duplicados.

Essa análise deve ser feita também para as descrições e headings.

Atenção:

Se tiver conteúdo oculto, ele poderá não aparecer para algumas ferramentas.

Analisar o tráfego orgânico

Analisar o tráfego proveniente dos motores de busca é muito importante no primeiro contacto com o site.

Devemos olhar para o tráfego orgânico como um todo, de forma a conhecermos as tendências de tráfego, a sazonalidade do negócio e possíveis penalidades do Google que o site tenha sofrido. É importante que essa análise seja feita para diferentes períodos de tempo, de forma a facilitar a comparação entre eles.

Devemos fazer uma comparação YoY (year over year) para os anos em que temos os dados disponíveis, bem como uma comparação WoW (week over week) para os últimos 12 meses.

Assim será possível ter uma perceção geral do tráfego orgânico do site. Para executarmos essa análise devemos fazer o seguinte:

  1. Tendências, Sazonalidade e Penalidades – ir ao Google Analytics >> selecionar o segmento “Tráfego Orgânico” e fazer: Aquisição >> Todo o Tráfego >> Canais >> Selecionar o Canal Orgânico. Selecionar o intervalo de datas para os últimos 12 meses. Reparar na tendência de tráfego e verificar a tendência do tráfego. Nos momentos de queda, perceber se a queda está relacionada com a sazonalidade do negócio ou se o site foi penalizado pelo Google. Uma boa dica é ter um calendário com os feriados do mercado em que estamos a analisar destacados, bem como as datas em que o Google lançou update. Assim será fácil perceber se o site caiu por sazonalidade ou se foi apanhado por algum update do Google.
  2. Top Performing Pages: ir ao Google Analytics, selecionar o segmento “Tráfego Orgânico” e fazer: Comportamento >> Conteúdo do Site >> Página de Destino. Selecionar o intervalo de datas para os últimos 12 meses. Com esta análise é possível identificar as principais páginas do site em termos de tráfego orgânico. Tendo essa informação como base é possível priorizar o trabalho de otimização das páginas, por exemplo: podemos começar por otimizar as páginas do site que estejam no Top 20 de tráfego orgânico. Podemos também agrupar os urls por grupos de páginas (páginas de produto, artigos do blog, páginas de categoria e etc e identificar o volume de tráfego de cada um deles).

 

Canibalização de Palavras-Chave

Todos os sites, uns mais e outros menos, têm vários concorrentes no Google.

A última coisa que nós queremos é que o nosso site esteja a competir com ele próprio nos resultados de pesquisa. Isso, apesar de ser um raciocínio simples, é, na verdade, um problema que acontece muitas vezes.

Os sites estão sempre a criar novas páginas, e isso acontece, por vezes, sem ter em conta as páginas que já existentes.

Como muitas vezes as páginas têm conteúdo muito parecido o Google posiciona-as para as mesmas palavras-chave.

Numa primeira análise é importante identificar as situações onde isso acontece e propor a sua correção.

Para identificar basta ir a ao Ahrefs e fazer o download de todas as palavras-chave orgânicas do site. De seguida devemos abrir o ficheiro em excel, ordenar por palavras-chave e destacar os registos duplicados e depois filtrar por duplicados.

Uma vez identificadas as palavras-chave que estão a ranquear no Google para mais do que uma página, devemos escolher a página que pretendemos que essa palavra-chave esteja associada e corrigir as outras páginas em que ela esteja a aparecer.

Há duas situações comuns que geram problemas de canibalização de palavras-chave, em baixo apresento essas duas situações, bem como uma sugestão de correção.

  1. Utilização indevida da palavra-chave – imagine a caso de um site de e-commerce que venda equipamentos desportivos. Esse site tem duas páginas distintas (/bicicleta-de-crianças e /bicicleta-para-adultos). Agora imagine que na página /bicicleta-de-crianca temos o seguinte copy: “A bicicleta é indicada para crianças, sendo que esta bicicleta não deve ser usada por adultos”. O simples fato de mencionarmos na página o termo “adultos” num contexto em que estamos a falar de “bicicletas” pode fazer com que o Google passa a ranquear a página também para termos de pesquisa relacionados com “bicicletas para adultos”. Por mais estranho que possa parecer, situações parecidas acontecem muitas vezes. Tendo isso em conta, uma dica que eu dou nesses casos é: aproveitar a página para falar de todas as potencialidades do produto, dizer tudo o que temos de bom sobre esse produto, sem mencionar outros produtos ou termos relacionados com outros produtos que estejamos a comercializar no site.
  2. Dois ou mais artigos sobre o mesmo tópico – esta situação também acontece muitas vezes. Imagine que tem um blog sobre marketing. No fim do ano de 2016 publicou o artigo “Dicas criar sua estratégia de marketing em 2017” com o url /dicas-para-criar-sua-estrategia-de-marketing-em-2017. No fim de 2017 publica um novo artigo, agora “Dicas criar sua estratégia de marketing em 2018” com o url /dicas-para-criar-sua-estrategia-de-marketing-em-2018. Esses dois artigos estarão, certamente, a competir para os termos de pesquisa mais populares, tais como: “estratégias de marketing”, “como criar uma estratégia de marketing” e etc. Não faz sentido estarmos a competir com nós próprios. Para resolvermos situações parecidas com essa eu proponho consolidar os dois artigos num só, com as dicas mais úteis e atuais e criar um novo url “/estratégia-de-marketing” e, se necessário, fazer um redireccionamento dos artigos antigos para o novo. Esse url passa a ser uma componente que não deve ser mudada. O artigo pode agora ser atualizado todos os anos como pretende. Pode ter a referência do ano em questão no título, descrição e copy do artigo à vontade. Só não o deve ter no url. Assim, evita estar a competir no Google para as mesmas palavras-chave.

O blog do Ahrefs tem um artigo muito interessante sobre canibalização de palavras-chave.

Analisar backlinks

A importância dos backlinks (links de outros sites a apontar para o nosso) como fator de ranqueamento já não é a mesma de há uns anos atrás, isso é indiscutível, mas que ainda são um forte fator de ranqueamento isso ninguém duvida.

Para falar deste tema eu teria que escrever outro artigo, portanto não vou entrar por aqui. Se por um lado ter bons links ajudam, e muito, no posicionamento do site nos motores de pesquisa, os maus links também influenciam, mas neste caso, negativamente.

Isso acontece, pois, o Google prejudica os sites que criaram muitos links spam.

Nesta primeira análise ao site o que eu sugiro é que se identifique no Ahrefs todos os backlinks do site que tenham um Domain Rating inferior a 15 (são provavelmente spam ou links de baixo valor) e fazer uma análise detalhada a cada um desses urls. Podemos usar a extenção BULK URL OPENER para abrir vários urls ao mesmo tempo.

O que queremos aqui é analisar a olho a qualidade do site que tem um link a apontar para nós.

Tenho por hábito analisar se o site tem muita publicidade intrusiva, a posição do link na página (se é um link contextual ou se aparece numa posição menos favorável, como por exemplo no footer, entre outros fatores que chamam a atenção para links spam) e que se faça disavol a esses links no Google Search Console.

Esse conjunto de análises permite perceber como está a saúde do site e como ele está preparado para os desafios de SEO.

Com base nos resultados de cada uma das análises é possível identificar pontos de melhoria, atribuir uma prioridade a cada um deles e atacar para melhorar o site.

Espero que tenha ajudado a entender como fazer uma auditoria de conteúdo e análise de conteúdo.

O próximo passo é fazer uma análise à concorrência.

As 5 Melhores SEO Tools do Mercado

SEO Tools Ferramentas

Esta é a pergunta que mais empresas fazem quando estão a querer crescer os canais orgânicos: Quais são as melhores SEO Tools disponíveis?

A SEO Portugal disponibiliza uma secção específica só sobre este tema onde é possível a nossa avaliação a cada uma das ferramentas: SEO TOOLS – TESTÁMOS AS MELHORES FERRAMENTAS

Apesar de poder parecer uma pergunta simples, não o é.

A escolha de ferramentas para o dia-a-dia de qualquer SEO deve ser feita com base das necessidades da equipa ou do profissional e não esperando que a tool de SEO por si só resolva os problemas.

Diferentes ferramentas irão revelar diferentes dados.

O melhor em qualquer SEO Audit, o melhor é sempre a conjugação de duas ou mais ferramentas.

Só assim poderá confrontar dados e métricas.

Esta lista das melhores ferramentas de SEO deverá ser vista como um conselho de algumas ferramentas e softwares de SEO sem os quais dificilmente conseguirá avançar na sua estratégia de SEO.

SEO Tools Ferramentas,Melhores SEO Tools do Mercado

5 Melhores Ferramentas de SEO 

O AHREFS tornou-se muito rapidamente numa das ferramentas mais importantes e mais completa para qualquer SEO.

E não pára de crescer – o que dá ânimo acrescido para os clientes continuarem a pagar a subscrição, que pode ser mensal ou anual.

Com o AHREFS é possível fazer praticamente tudo.

E por isso aparece no cimo desta tabela. Confirmar rankings, analisar backlinks, encontrar lacunas de conteúdo, correr um crawl no seu site ou no da concorrência para encontrar oportunidades…

A utilização do AHREFS é quase ilimitada e são poucos os SEOs que usufruem de todas as funcionalidades desta tool.

O SemRush a par do AHREFS é das tools mais completas do mercado.

De facto, estas duas ferramentas lutam pelo mesmo segmento e têm trabalhado nos mesmos serviços.

A usabilidade do SemRush é um pouco melhor, mas esta ferramenta de SEO não permire, por exemplo, uma análise por URL.

Tenho sido desafiado a ter que escolher entre uma ou outra.

A verdade é que nesta fase ainda não fui capaz de me desfazer de nenhuma delas.

O crawl do SemRush é super intuitivo e apresenta os resultados de uma forma brilhante.

Ainda assim, limita o número de páginas que são corridas e não permite uma personalização do crawl tão profunda quanto o Screaming Frog.

  • Screaming Frog

O Screaming Frog é um software para fazer crawl aos websites e permite ter uma ideia de como o Google está a ler o seu site – ou o da concorrência.

O nome é genial e fica no ouvido. Mas mais importante, depois de o começar a usar não irá conseguir parar.

O crawler permite encontrar links partidos, confirmar redireccionamentos, testar a consistência dos robots.txt

Alguns utilizadores usam o próprio software para encontrar e filtrar os problemas. Mas a maioria faz o download do report para uma folha de Excel e trabalha a partir daí.

A funcionalidade de Extrair é relativamente desconhecida, mas é uma das muitas maravilhas que o software de SEO oferece, possibilitando a extracção de dados específicos (como data de publicação da página, por exemplo) para o relatório final.

  • Search Console (Webmaster tools)

Parece óbvio, mas de tão óbvio, às vezes o Webmaster Tools (tanto o do Google como o do Bing) tende a ser esquecido.

A famosa Search Console do Google – agora com mais funcionalidades e um registo de 16 meses de dados – é um dos bens mais preciosos de qualquer SEO.

Analisar tendências e analisar a performance do site é quase impossível sem visitar todos os dias esta poderosa ferramenta de SEO que o Google coloca ao seu dispôr.

Muitos SEOs não a utilizam com a frequência que deveriam e outros há que esperam que a GSC seja a resposta para todos os problemas.

A verdade estará algures no meio.

  • Google Analytics ou Adobe Omniture

Ter uma ferramenta de análise de visitas é fundamental.

A Search Console poderá dar uma ideia das visitas orgânicas, mas não tem capacidade para lhe mostrar as visitas directas, as que vêm de Canais Pagos ou das Redes Sociais.

A análise diária do tráfego deveria ser parte integrante de qualquer manhã de um SEO. Quais as tendências?

A tendência orgânica é a mesma vista nos outros canais? Que páginas ou grupo de páginas estão com melhor ou pior performance?

O Google Analytics é gratuito e de fácil instalação.

O Adobe Omniture é pago e de instalação mais complexa.

Um ou outro permitem fazer mais ou menos o mesmo.

Em grande parte, o Omniture ainda não conseguiu provar o seu valor perante o Google Analytics.