Meta Tags: O que são e como melhorar o SEO

A cada dia que passa fica mais difícil ranquear nos motores de busca e a necessidade de entender um pouco mais sobre SEO aumenta. Isso inclui as meta tags.

Mas o que são meta tags?

Muitas pessoas, inclusive as que trabalham com marketing digital, têm essa mesma dúvida.

Qualquer detalhe pode ser muito importante para melhorar o desempenho na SERP do Google. Mas nesse caso, se trata de um valioso recurso para o SEO e marketing de conteúdo.

Ficou interessado em saber como as meta tags podem te ajudar e qual a sua importância? Continue lendo.

O que são meta tags?

As meta tags são marcadores em formato HTML que traduzem o conteúdo de uma página para os motores de busca. Ou seja, permitem que o Google identifique o seu conteúdo mais facilmente.

Elas fazem com o que o Google encontre a melhor resposta para uma busca do usuário. Isso ocorre através de dados como o título, nome de autor, data e outras informações importantes.

A sua utilização traz uma vantagem competitiva para um bom posicionamento nas páginas de resultados do Google (SERP).

Então, é muito importante fornecer os dados mais relevantes para o buscador, como a palavra-chave, por exemplo.

Elas não são visíveis ao usuário numa página, mas é possível encontrá-las no código HTML.

Para isso, é só clicar com o botão direito do mouse e selecionar “exibir código fonte da página” no Google Chrome ou “ver código-fonte da página” no Firefox.

As meta tags estão no início do documento com a marcação <meta> ou <title>.

Qual a importância das meta tags para o SEO?

Vamos dizer que as meta tags facilitam e tornam o trabalho dos robôs mais rápido e fácil. Isso porque as marcações aceleram a busca pelas respostas mais relevantes para o usuário.

Elas estabelecem uma comunicação direta entre o seu conteúdo e os mecanismos de busca.

Dessa forma, as meta tags são elementos importantes para o SEO, já que trabalham no sentido de melhorar o ranqueamento nos mecanismos de busca.

Principais meta tags para SEO

Existem muitos tipos de meta tags, mas alguns são mais importantes para os mecanismos de busca e, consequentemente, para o SEO.

Vamos ver quais são.

Meta description

A meta descrição é o texto que aparece logo abaixo do título clicável nos resultados de busca.

Uma boa meta description pode atrair mais cliques e gerar mais resultados, o que é muito importante para a otimização e SEO do site.

Nesse texto você deve fazer um resumo do que ele vai encontrar na página, sempre com o objetivo de atrair o clique.

Apesar de não ter uma influência direta, é sempre bom utilizar a palavra-chave na descrição.

Quantos caracteres deve ter a meta description de seo? Ela deve conter entre 120 a 130 caracteres e nunca deve ser duplicada ou copiada.

Title Tag

A title tag é o título clicável que aparece nos resultados de busca do Google.

De todas as outras meta tags, a title tag ou SEO title é a mais importante para uma estratégia de SEO.

Ela também é visível para o usuário e impacta diretamente na classificação das pesquisas.

Sempre que você quiser ranquear no Google para uma palavra-chave específica, deverá criar uma página com uma title tag para cada uma.

A palavra-chave deverá constar na title tag o mais à esquerda possível.

Então, vamos supor que você está ranqueando para a palavra-chave SEO. A title tag “SEO: o que é e como usar” é melhor do que “O que é SEO e como usar”.

  • As melhores práticas quanto ao title tag são:
  • Utilizar, no máximo, 60 caracteres;
  • Evitar repetir a palavra-chave, use apenas uma vez;
  • Colocar a palavra-chave o mais à esquerda possível, o ideal é no início;
  • Não utilizar o nome da empresa nos títulos.

Meta keywords

As meta keywords foram muito importantes e utilizadas no passado, mas hoje já não são mais consideradas pelo Google.

Isso porque hoje em dia utilizamos as palavras-chave por página e por artigo, de maneira que cada artigo tem uma palavra-chave relevante. Sem a necessidade de guardar todas elas numa meta tag.

Além disso, elas nunca são exibidas para quem está realizando uma pesquisa, então não justifica a utilização.

Meta robots

Essa meta tag estabelece uma comunicação direta entre o seu site e os mecanismos de busca.

Através do meta robots o seu site pode indicar o que os robôs do Google ou de outro mecanismo de pesquisa realizem com a sua página.

Funciona através de comandos, como:

  • Index/Noindex: ativa ou desativa a indexação da sua página nos mecanismos de busca;
  • Follow/Nofollow: informa se os links devem ser seguidos ou não;
  • Noarchive: orienta o Google a não exibir a versão cache da página;
  • Nosnippet: instrui o mecanismo de busca a não exibir nos resultados a descrição da página.

Pode ver mais aqui sobre robots.txt.

Como usar as meta tags?

De maneira prática, como é possível inserir as meta tags no site?

Para quem utiliza o WordPress fica muito fácil e intuitivo alterar as meta tags citadas aqui no artigo, podendo fazer isso com o plugin Yoast SEO.

O Yoast SEO é gratuito e qualquer pode utilizá-lo. As configurações das meta tags são feitas individualmente por páginas e posts.

Em cada post ou página é possível adicionar uma palavra-chave, uma meta title e uma meta description.

Se você utiliza o Wix o ideal é fazer uma busca na Central de Ajuda, já que cada uma das etiquetas é configurada separadamente.

Já no Blogger você pode fazer isso por meio do painel de controle, em “editar HTML” que fica dentro de “design”.

As meta tags estão entre as tags de abertura e fechamento do elemento, por exemplo, entre <title> e </title>.

Cuidado com essas alterações tanto no Wix e, principalmente, no Blogger, que podem modificar as estruturas do site e gerar algumas complicações.

Caso não saiba fazer isso, entre em contato com um webmaster.

Conclusão

Pode parecer muito difícil entender e trabalhar com as meta tags, mas você deve ter em mente que elas ajudam a tornar o seu site mais otimizado para o Google.

Nesse artigo, você entendeu o que são as meta tags e sua importância no ranqueamento do Google.

Além disso, você tem condições agora de melhorar o posicionamento do seu site a partir disso.

Para saber mais sobre hreflang tags leia este artigo. Aprenda a fazer uma auditoria de SEO às suas meta tags.

A/B Teste em SEO

Uma das técnicas menos conhecidas em SEO é o teste A/B. O A/B teste em SEO traz mais tráfego e mais clientes a adquirir o seu produto ou serviço.

Já reparou que cerca de 50% das suas páginas e conteúdo recebe zero tráfego orgânico? É fácil sentir-se frustrado quando nos enquadramos neste intervalo, especialmente se executámos uma estratégia de SEO que esperavámos que funcionasse.

No entanto, muitas vezes, não precisamos de reavaliar toda a abordagem de SEO para começar a ver resultados. Em vez disso, você pode executar experimentos para determinar os ajustes de optimização necessários, sem ter que alterar todo o site e sem sacrificar os rankings que já tem.

A resposta?

Teste de SEO A/B.

Irei explicar porque é que o teste A / B é importante, os elementos de SEO que se podem fragmentar e várias técnicas que resultam em mais tráfego.

Vamos.

O que é A/B Teste em SEO

Os testes A/B pretendem testar duas ou mais variantes ao mesmo tempo, dividindo o número de utilizadores pelas duas (ou mais versões).

Teste A/B é um método de teste de design através do qual comparam-se elementos aleatórios com duas variantes, A e B, em que estes são o controle e o tratamento de uma experiência controlada, com o objectivo de melhorar a percentagem de aprovação.

Vale ressaltar que testes A/B são diferentes de testes multivariados. Testes multivariados testam mais de uma variável de uma vez só, enquanto testes A/B testam apenas uma variável (duas variações) de cada vez com o objetivo de escolher a melhor entre as duas.

O que o IA / B pode testar?

Existem vários elementos de SEO na página que podem formar a base dos seus experimentos A/B, como:

  • Meta títulos e descrições
  • Estruturas de URL
  • Manchetes (H1)
  • Chamadas à ação (formas, cores e texto dos botões)
  • Teste do botão CTA
  • Descrições de produtos
  • Imagens ou vídeos
  • etc
pasted image 0 15
Imagem da www.singlegrain.com/

 

Esse tipo de teste A / B de SEO permite determinar o comprimento ideal da descrição do seu produto antes de se comprometer a escrever 150 palavras extras para cada produto – sem saber se vale a pena.

O mesmo conceito aplica-se ao teste de divisão dos seus meta títulos e descrições. Pode simplesmente agrupar vários URLs em duas categorias – uma com a palavra “comprar” no meta título e outra sem – para ver se essa frase afecta as principais métricas de SEO (como CTR ou posição de ranking).

Ainda que CTR e rankings sejam, por norma, as métricas mais utilizadas, os testes A/B em SEO também podem ser utilizados para entender o impactos de projectos de SEO Técnico.

Caso prático

Na SEO Portugal utilizamos o Optimize para fazer os nossos testes. É uma ferramenta que aconselhamos. Além de gratuita, demora apenas alguns minutos (dependendo do seu nível de conhecimento dos produtos Analytics do Google ) a instalar.

Esta ferramenta de A/B testes é fasntástica, sobretudo porque permite construir rapidamente em editor as novas versões.

Na nossa página de Cursos de SEO notámos que muitos utilizadores saiam da página antes de fazerem qualquer leitura. Queriamos entender como responder às dúvidas dos visitantes da melhor forma possível.

Para isso construímos duas variantes.

Controlo

Variante 1

 

Variante 2

Qual consideram que foi a variante vencedora? Porquê?

Como saber o que testar?

Antes de partir logo para os testes, o mais importante de tudo é entender o que testar. Para isso é necessário descobrir problemas.

Aconselhamos muito a leitura do livro “Making Websites Win“. Este livro foi escrito pela maior agência de CRO (conversion rate optimization) do mundo. Eles explicam que ferramentas usar, quando usar e como implementar os resultados na sua empresa.

Entender o problema é o primeiro passo para qualquer teste. Realizar um teste sem saber exactamente o que estamos a medir ou a pretender atingir é meio caminho para investir recursos e dinheiro sem obter nenhum retorno com isso.

Fazer uma auditoria técnica de SEO é sempre um bom princípio. Depois, olhar para os dados da Google Search Console, Google Analytics e entender se há páginas ou grupos de páginas com pior desempenho.

Entender os sintomas e descobrir a causa antes de fazrer qualquer teste. Esse é o segredo.

Diferença entre o teste A / B para SEO versus CRO

De uma forma bem básica, os testes A/B para a CRO esperam que mais pessoas convertam enquanto estiverem na página, enquanto os testes A/B para SEO esperam dirigir mais tráfego para a sua página.

Os tipos de alterações que você faz para o SEO devem atrair os utilizadores nos resultados de pesquisa do Google, bem como o Googlebot que determina os rankings de busca de suas páginas.

Porém, CRO e SEO têm em comum as páginas do site. E um site que converta bem, terá mais ganhos em SEO. É difícil que CRO realize testes sem saber os impactos em SEO e vice-versa.

Nas grandes empresas, estas duas equipas trabalham sempre em conjunto.

Por exemplo, diminuir o Bouce Rate é da responsabilidade da equipa de CRO ou de SEO?

Ferramentas de teste A/B

Para realizar com eficiência um teste A/B recomendamos o uso de alguma ferramenta para ajudar você no processo.

Que outras perguntas ficaram por responder sobre A/B Teste em SEO?

Como implementar Hreflang Tag

hreflang tag Holytrap

Hreflang tag é uma alternate, inserida no código html das páginas de um site ou nos sitemaps, para indicar ao Google que aquele conteúdo possui versões em diferentes idiomas e/ou para diferentes países.

Para aqueles que são mais meticulosos: 

hreflang não é tecnicamente uma tag, é um atributo. Mas é comum ser chamado de tag.

A sua utilização é importante para indicar qual o conteúdo mais adequado para Google em cada país ou, no caso de haver mais de uma língua oficial no país, qual a página correcta consoante o idioma do navegador.

Mesmo que não utilize hreflang tag é possível que o Google consiga perceber que página deve ser mostrada em cada um dos países. No entanto, em geral, é melhor indicar explicitamente as páginas específicas a idiomas ou regiões.

O Google explica neste vídeo como e quando implementar as hreflang tags:

Métodos para implementar hreflang tags

HTML

Adicione elementos ao cabeçalho da página para informar o Google sobre todas as variações de idioma e região de uma página. Isso será útil se você não tiver um sitemap ou não puder especificar cabeçalhos de resposta HTTP para o site.

Cada variação da página deve incluir um conjunto de elementos para cada variante da página, incluindo para ela mesma. O conjunto de links é idêntico para todas as versões da página.

<link rel=”alternate” hreflang=”lang_code” href=”url_of_page” />

Um exemplo de boa implementação das hreflang tag é o site da Holy Trap, um escape room no Algarve que procura atrair tráfego de Portugal, mas também do mercado inglês.

hreflang tag Holytrap

Cabeçalho HTTP

É possível retornar um cabeçalho HTTP com a resposta GET da página para informar o Google sobre todas as variantes de idioma e região de uma página. Isso é útil para arquivos não HTML, como PDFs.

Este é o formato do cabeçalho:

Link: <url1>; rel="alternate"; hreflang="lang_code_1", <url2>; rel="alternate"; hreflang="lang_code_2", ...

Sitemap

É possível usar um sitemap para informar o Google sobre todas as variantes de idioma e região de cada URL. Para fazer isso, adicione um elemento <loc> que especifique um único URL, com entradas filhas <xhtml:link> que listem todas as variantes de idioma/localidade da página, incluindo ela mesma. Assim, se você tiver três versões de uma página, o sitemap terá três entradas, cada uma com três entradas filhas idênticas.

Regras do sitemap:

  • Especifique o namespace xhtml da seguinte forma:
    xmlns:xhtml="http://www.w3.org/1999/xhtml"
  • Crie um elemento <url> separado para cada URL.
  • Cada elemento <url> precisa incluir um filho <loc> indicando o URL da página.
  • Cada elemento <url> precisa ter um elemento filho <xhtml:link rel="alternate" hreflang="supported_language-code"> que liste todas as versões alternativas da página, incluindo ela mesma.  A ordem desses elementos filhos <xhtml:link> não importa, mas mantê-los na mesma ordem facilita a verificação de erros.

Porque são as tags Hreflang tão importantes?

As tags do Hreflang ajudam os mecanismos de pesquisa a entender qual a versão do conteúdo é exibida para qual público-alvo.

Atenção:

hreflang é apenas uma directiva para o Google. Por vezes o Google entende que há outras páginas que melhor respondem ao utilizador e ignora a tag. Mas isso não significa que as hreflang não têm valor.

O Google já não confia tanto nos ccTLDs como o principal indicador de localização. Em vez disso, o motor de busca está tomar decisões sobre o fornecimento de conteúdo com base nas configurações do utilizador, do local e do idioma, aumentando assim a importância da tag Hreflang.

É também importante utilizar hreflang para evitar que o Google entenda conteúdos parecidos ou iguais como duplicados. Se há duas páginas semelhantes mas com target para países diferentes o Google deve ser avisado através destas tags.

Quais são os problemas mais comuns com tags Hreflang?

Ao longo dos anos, analisámos milhares de tags de Hreflang e, muitas vezes, vimos os mesmos tipos de erros.

Códigos Incorretos

Um dos problemas mais comuns é o uso de linguagem inventada ou códigos de país. Geralmente, os códigos oficiais são diferentes para o idioma e o país, portanto, as suas tags são diferentes.

Bons exemplos disso:

Sueco – não é SE-SE mas SV-SE. SV para Svenska, o nome da língua sueca
Japonês – não é JP-JP mas JA-JP para japonês
O Reino Unido – O código oficial do país para o Reino Unido é GB não no Reino Unido, portanto o código correto é EN-GB não EN-UK.
Você não precisa se lembrar desses códigos, pois pode encontrar facilmente uma lista dos dois tipos de código on-line:

http://en.wikipedia.org/wiki/List_of_ISO_639-1_codes
Os códigos de país estão aqui: http://en.wikipedia.org/wiki/ISO_3166-1_alpha-2

Tag Hreflang de auto-referência ausente

Ao listar todas as tags do Hreflang, seja na página ou no arquivo do sitemap, inclua uma tag no idioma actual. Portanto, se você estiver a fornecer tags Hreflang de uma página ou sitemap alemão, certifique-se de que há um Hreflang alemão e as dos outros mercados.

Conflitos com tags canônicas

Certifique-se de que a tag de auto-referência usa o mesmo URL da tag canónica (canonical tag) na página ao adicionar Hreflang tag. Se as duas tags entrarem em conflicto, isso apenas confundirá os mecanismos de busca.

URLs de tags do Hreflang que não estão correctas

Pode ser um URL que redirecciona ou uma página que não está mais activa. Fazer um crawl com o ScreamingFrog é suficiente para encontrar esses problemas.

A análise de erros das hreflang tags fazem parte de qualquer análise de SEO técnico.

Veja aqui como fazer uma Auditoria SEO, passo por passo. Ou saiba mais sobre as meta tags.

Robots.txt : O que são e como criar

Exemplo robots txt

O arquivo robots.txt fica na raiz de qualquer site e pode ser encontrado em www.example.com/robots.txt. O robots.txt é um arquivo de texto simples que segue o Protocolo de exclusão de robôs.

Um arquivo robots.txt é constituído por uma ou mais regras. Cada regra bloqueia (ou permite) o acesso de um determinado rastreador a um caminho de arquivo (página ou pasta) especificado no site.

O robots.txt é uma parte frequentemente esquecida em SEO e nas auditorias técnicas. Mesmo sendo uma parte importante de qualquer conjunto de ferramentas de SEO.

Exemplo robots.txt

Este ficheiro pode ser usado para diversos fins, desde que os mecanismos de pesquisa saibam onde ir para localizar o sitemap dos seus sites até que páginas rastrear e indexar e não rastrear. Além de ser uma óptima ferramenta para gerir o crawl budget de sites.

Por exemplo, se tiver páginas duplicadas ou páginas desactualizadas e queira que o Google não aceda a uma delas.

Crawl Budget

O crawl budget ou orçamento do rastreamento é o método que o Google usa para rastrear e indexar as páginas dos sites com eficiência. Por maior que seja o Google, o motor de busca ainda têm um número limitado de recursos disponíveis para rastrear e indexar o conteúdo de seus sites.

Especialmente se tiver um site com muito conteúdo fornecido em javascript.

Se o seu site for grande como um site de comércio eletrónico, por exemplo, e você tiver milhares de páginas com muitos URLs gerados automaticamente, o Google poderá não rastrear todas essas páginas e você perderá muita oportunidade de tráfego e de visibilidade.

O Google já confirmou que ter muitos URLs de baixo valor pode afectar negativamente o rastreamento e a indexação de um site. É aí que ter um arquivo robots.txt pode ajudar com os factores que afectam o orçamento de rastreamento de sites.

Analisar o robots.txt é fundamental numa auditoria de SEO.

Você pode usar o arquivo para ajudar a gerir o crawl budget, certificando-se de que os mecanismos de pesquisa estejam gastando o seu tempo no site da maneira mais eficiente possível – rastreando apenas as páginas importantes sem perder tempo páginas como login, inscrição ou páginas de agradecimento.

Especialmente se tiver um site grande.

Porque precisa do robots.txt?

Antes que um robot como o Googlebot, Bingbot, etc. rastreie uma página da Web, primeiro ele verifica se existe, de facto, um arquivo robots.txt e, se houver, geralmente respeitará as instruções encontradas nesse arquivo.

Um arquivo robots.txt pode ser uma ferramenta poderosa para SEO, pois é uma óptima maneira de controlar como os rastreadores/bots de motores de busca acedem determinadas áreas do site. Lembre-se de que precisa entender como o arquivo robots.txt funciona ou acidentalmente poderá bloquear o Googlebot ou qualquer outro bot e eles não serão capazes de rastrear todo o seu site. Isos fará com que possa não encontrar o seu site nos resultados de pesquisa.

Quando feito correctamente, é possível controlar coisas como:

  • Bloqueio de acesso a secções inteiras do seu site (ambiente de desenvolvimento e armazenamento, etc.)
  • Impedir que as páginas internas de resultados de pesquisa dos seus sites sejam rastreadas, indexadas ou exibidas nos resultados de pesquisa.
  • Especificar a localização do seu sitemap ou sitemaps
  • Optimizar o orçamento de rastreamento, bloquear o acesso a páginas de baixo valor (login, obrigado, carrinhos de compras, etc.)
  • Impedir que determinados arquivos (imagens, PDFs, etc.) sejam indexados

Exemplos de Robots.txt

Seguem-se alguns exemplos de como pode usar o arquivo robots.txt no seu site.

  1. Permitir que todos os rastreadores/robots da web acessem todo o conteúdo do site:
User-agent: *
Disallow:

Bloquear todos os rastreadores / bots da Web de todo o conteúdo do site:

User-agent: *
Disallow: /

É muito fácil cometer um erro ao criar os robots.txt do seu site, pois a diferença de bloquear todo o seu site e de o seu site ser visto é uma simples barra invertida.

Bloqueio de rastreadores / bots da Web específicos de uma pasta específica:

User-agent: Googlebot
Disallow: /

Bloqueio de rastreadores / bots da web de uma página específica do seu site:

User-agent: 
Disallow: /cart.html

Exclua todos os robôs de parte do servidor:

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /junk/

Para confirmar que os robots.txt estão bem construídos, que as páginas que deseja bloquear estão realmente bloqueadas, pode utilizar a Google Search Console e testar página por página.

O “Disallow” é um comando que instrui os sites de busca sobre quais directórios ou páginas não devem ser incluídas no índice.

O Google fornece ainda um guia de especificações do robots.txt que pode ajudar a melhor entender como o Google lida com o arquivo.

O tamanho máximo do arquivo robots.txt – para o Google – é de 500 KB, por isso é importante estar atento do tamanho do arquivo robots.txt.

Como criar um arquivo robots.txt

Criar um arquivo robots.txt para o seu site é um processo bastante simples, mas também é fácil cometer um erro. Não deixe que isso o desencoraje de criar ou modificar um arquivo de robôs.

Este artigo do Google orienta pelo processo de criação de arquivos robots.txt e deve ajudá-lo a obter um ficheiro perfeito.

Se precisa de mais info, pode ler os básicos sobre robots.txt.

Melhores práticas para construir robots.txt:

  1. Certifique-se de que todas as páginas importantes sejam rastreáveis e que o conteúdo que não forneça qualquer valor real seja bloqueado.
  2. Não bloqueie recursos JavaScript e arquivos CSS
  3. Faça sempre uma rápida verificação do seu arquivo para se certificar de que nada mudou por acidente
  4. Coloque o arquivo robots.txt no directório raiz do seu site para que ele seja encontrado
  5. O arquivo Robots.txt faz distinção entre maiúsculas e minúsculas, o arquivo deve ser chamado de “robots.txt” (sem outras variações)
  6. Não use o arquivo robots.txt para ocultar informações privadas do utilizador, pois elas estarão visíveis
  7. Adicione o local do sitemaps ao seu arquivo robots.txt.
  8. Verifique se você não está a bloquear nenhum conteúdo ou secções do seu website que você deseja que o Google encontre

Erros comuns nos robots.txt

“indexada, mas bloqueada pelo robots.txt”! O sitemap contém urls bloqueados pelo arquivo robots.txt. Este é dos erros mais comuns que encontramos nos alertas do Google Serach Console.

Este erro acontece quando nos sitemaps está uma página que estamos a bloquear nos robots.txt. Basicamente, estamos a pedir no sitemap que o Google leia uma página ao mesmo tempo que estamos a dizer ao Google -a través do arquivo robots.txt – que não pode aceder àquela página.

Este erro acontece muitas vezes em sites que utilizam wordpress ou blogs que utilizar plugins que disparam sitemaps para páginas de tags e categorias.

Para corrigir basta decidir se retira as páginas do sitemap ou se, de facto, elas não deveriam estar a ser bloqueadas pelo robots.txt.

Usar o Screaming Frog – uma das principais ferramentas de SEO – ajudará a encontrar páginas erradamente bloqueadas.

Confirme internal links e external links. Esteja seguro que não tem páginas importantes bloqueadas aos bots do Google.

Robots.txt Generator

Um arquivo robots.txt completo contém “User-agent”, e abaixo dele, pode escrever outras directivas como “Permitir”, “Proibir”, etc. Se escrito manualmente pode levar muito tempo, sobretudo se tiver que escrever várias linhas de comandos em um arquivo. Os geradores de robots.txt permitem excluir ou permitir paginas com um simples clique em um botão. Ou seja, permite fazer um robots.txt personalizado.

Se procura um robots.txt generator nós sugerimos os seguintes:

  1. SEObook
  2. Internet Marketing Ninjas
  3. Ryte