Technical SEO: Os erros mais comuns e tão fáceis de resolver

Technical SEO erros mais comuns

O Technical SEO não é algo tão complicado depois que entendemos os básicos. Sim, ajuda se tivermos alguns conhecimentos – ainda que básicos – de HTML, php, java, etc…

Os nossos sites estão constantemente perante problemas técnicos que podem prejudicar a sua performance orgânica.

As auditorias técnicas as sites devem ser feitas de forma constante e pró-activa.

O Technical SEO base não precisa ir além de uns quantos crawls com o Screaming Frog.

Aqui pode ler como Como Fazer uma Auditoria de SEO !

Identificar erros de rastreamento com um relatório de rastreamento

Fazer um crawl, seja com o Screaming Frog, SemRush, AHREFS ou qualquer outro crawler, é o mínimo que se deve fazer a cada mês ou par de meses (sobretudo em sites com muitas páginas).

Ao fazer estes relatórios de forma periódica é possível ver e identificar os problemas técnicos mais urgentes de SEO, como conteúdo duplicado, baixa velocidade de carregamento página ou falta de tags H1 / H2.

É possível automatizar auditorias de site usando uma variedade de ferramentas de SEO e trabalhar com a lista de erros ou avisos criados pelo rastreamento.

Essa é uma tarefa na qual se deve trabalhar mensalmente para manter o site sem erros – bem, pelo menos com o menor número possível – e o mais optimizado possível.

Erros de Technical SEO Mais Comuns

  • Conteúdo Duplicado

Vamos começar com a pedrada no charco: conteúdo duplicado! Ainda que conteúdo duplicado não pareça directamente um problema técnico, de facto, muitas vezes os problemas de duplicação têm origem técnica.

O conteúdo duplicado NÃO penaliza o site.

Ou seja, o facto de ter muitas páginas duplicadas não prejudica o domínio, mas prejudica sim o alcance total das páginas que tem, uma vez que o Google irá escolher uma página para indexar e eliminar todas as demais.

As causas mais comuns passam por falta de canonical tags, criação de muitas páginas de categorias ou tags.

Duplicação de Titles, Descriptions e H1 devem ser evitadas a todo o custo

  • Páginas sem H1

É mau ter páginas com o mesmo H1, mas é igualmente mau ter páginas sem H1. o H1 é o Título na página e cada página deverá estar devidamente identificada sobre o seu conteúdo

rastreio - erros técnicos de SEO
Estudo do SemRush – Clicar na imagem para ler artigo
  • Configuração Incorrecta do www

Na altura de configurar o seu domínio pode escolher apresentar as páginas com o subdomínio www. ou sem www.

Não há penalização de usar uma ou outra forma, mas tenha a certeza que usa a mesma forma em todo o site e redirecciona a forma não usa

da para a que está activa.

O www. é considerado um subdomínio e por isso os URLs com e sem www. são vistos como páginas diferentes.

Se apresentar o conteúdo nas duas versões o Google irá considerar isso duplicação de conteúdo.

Na Googlle Search Console pode ajudar o Google a entender a qual das versões deve ser dada prioridade.

  • Optimização das Imagens

Optimizar Imagens para SEO não é simplesmente ter ALT tags. O nome do ficheiro (e respectivo URL da imagem) devem estar optimizados.

Mas isso é a parte de conteúdo. Tecnicamente falando, lembre-se que quase todos nós acedemos à net – cada vez mais – através de smartphones.

Imagens muito pesadas e que demoram a carregar vão estragar a usabilidade e prejudicar na hora de ranquear.

  • Cadeia de Redireccionamentos

Criar redireccionamentos ajuda a não ter links quebrados no site. Porém, ao fim de alguns meses (anos?) encontramos situações onde o antigo URL A redirecciona para o B que agora redirecciona para C que por sua vez resolve em D.

A isto chamamos cadeia de redireccionamentos e, como já deve estar a perceber, devem ser corrigidos.

Se A tem mesmo que ser redireccionado então deve ser redireccionado para D. E quanto a B? Bem, é mesmo neccessário manter B? Há backlinks para B? Há inlinks para B? Há alguma razão para manter B?

Se sim, então B deve ser redireccionado para D, caso contrário podemos eliminar o redireccionamento.

Já agora falemos de loops!

Ou seja, A redirecciona para B e B para C e C para A… o site nunca irá abrir. O Screaming Frog tem um relatório específico para estas situações.

É fácil de encontrar estes problemas.

  • 404 – páginas não encontradas

Um dos piores erros que pode existir: uma página que não abre. Quando nosdeparamos com um 404 temos de perceber alguns pontos:

  1. Queremos mesmo que
  2.  esta página resolva 404? – Se sim, então devemos remover todos oos inlinks do nosso site;
  3. Este é um conteúdo que existiu mas foi removido de vez para nunca mais voltar? Se sim, talvez devessemos considerar aplicar um código 410 e remover todos os inlinks.
  4. Há uma outra página que pode responder aos interesses dos usuários e que substitua esta? Se sim, talvez devessemos redireccionar (301) ou mudar directamente os inlinks
  5. É uma página que está temporariamente fora do ar? Se sim, talvez possamos redireccionar (302) para uma página que responsa aos interesses do utilizador ou para a homepage.
  • Links internos com “nofollow”

Qual o interesse de ter links internos que não queremos que o Google não siga?

Porquê não passar “juice” de uma página para outra? Bem, se realmente há uma razão, então bom trabalho.

De outra forma, os inlinks devem ser todos “follow”.

Problemas SEO tecnico Sitemap
Clicar na imagem para ler “40 Erros Técnicos de SEO – Pesquisa da SEMrush”
  • Sitemap

O sitemap é fundamental para o Google descobrir todas as suas páginas e entender a estrutura do seu site.

Além do mais, se dividir o seu sitemap por grupo de páginas poderá entender  que páginas o Google indexa melhor e quais o Google gosta menos.

Não tente contabilizar os ganhos de ter ou não um sitemap. Está a perder dinheiro enquanto tenta justificar o investimento. Se usa wordpress, veja aqui os melhores plugins para wordpress.

Ter páginas bloqueadas por robots.txt ou com tag no-index no sitemap não é boa prática.

Tenha a certeza que o Google encontra o seu sitemap e que ele está bem configurado.

  • HREFLANG

Para sites com versões em diferentes idiomas é nececssário ter as hreflang tags bem definidas. Tenha a certeza que as páginas apontam para as equivalentes em cada idioma. Seja em html ou no sitemap.

Erros no ficheiro robots.txt podem causar problemas de indexação. Tenha a certeza que o seu ficheiro está correcto, no formato correcto, que o Google o consegue encontrar e que está submetido no Google Search Console.

Se tiver dúvidas, pode ler aqui como forçar o Google a fazer o crawl do site.

technical SEO - Problemas velocidade página
Clique na Imagem para ver o relatório do Semrush
  • Velocidade de carregamento da página

Uma página que demora mais de 3 ou 4 segundos a carregar/abrir é uma página que potencialmente irá trazer problemas aos seus utilizadores. Sobre a velocidade dos sites pode ler estes artigos:

  1. Como deixar um site em WordPress mais rápido
  2. SEO Mobile, Mobile Speed, AMP e PWA
  • Páginas AMP sem canonical tag

Este é um erro menos comum – até porque a implementação de AMP não é tão usual – mas serve para fechar esta lista não exaustiva de erros técnicos.

Como Indexar Site no Google

forçar google crawl site

Como indexar site no google? O site está pronto e o próximo passo é indexá-lo no Google? É neste ponto que muitos webmasters têm dúvidas: como forçar o Google a fazer o crawl do site?

Veja:

Os métodos aqui apresentados servem para explicar o que fazer para indexar um novo site, uma nova página ou um conjunto alargado de páginas.

Se viu uma quebra no seu tráfego orgânico e não está certo se é um problema de indexação ou não, veja aqui como fazer uma análise completa.

Se, a questão é tentar desindexar páginas, então veja este artigo sobre resultados negativos.

Os rastreadores do Google são muito bons a fazer o seu trabalho. Raramente é necessário fazer um trabalho manual de pedido de indexação de páginas, pois o Google está constantemente a ler a web e é raro não apanhar uma nova página ou domínio.

Ainda assim, é uma boa prática dar ao Google uma pequena ajuda com seu trabalho de indexação, sobretudo se o site é novo e não tem nenhum histórico de visitas.

Aliás, “como indexar o meu site no Google” foi a minha primeira preocupação quando quis abrir o seoportugal.net ao mundo.

Cada uma das seguintes ferramentas oficiais do Google pode ajudar na indexação de páginas.

O Google aconselha os utilizadores a fazerem pedidos de indexação.

É, porém, importante ter sempre em mente que nenhuma destas ferramentas pode, realmente, forçar a indexação no Google nem obrigar o Google a indexar o seu site.

  • O rastreamento pode levar de alguns dias a algumas semanas. Seja paciente e monitore o progresso usando o relatório Status do índice ou a ferramenta de inspeção de URL.
  • Todos os métodos descritos aqui têm aproximadamente o mesmo tempo de resposta.
  • Há uma cota para enviar URLs individuais.
  • Solicitar um novo rastreamento várias vezes para o mesmo URL ou sitemap não fará com que ele seja rastreado mais rapidamente.

Uma indexação mais rápida e abrangente do seu site ocorrerá se o conteúdo for novo, original, útil, fácil de navegar e estiver vinculado a outros lugares da web, através de links.

Atenção:

Estas ferramentas não garantem que o Google consider um site indexável. E também não devem ser usados como alternativa à publicação de conteúdo que agrega valor ao ecossistema da Internet.

Para saber se o seu site está tecnicamente preparado para ser indexado consulte a Google Search Console.

Ou seja, basicamente, podemos informar o Google de uma nova página, mas a decisão final de indexação está sempre nas mãos do motor de busca.

Antes de explicar como indexar um site no Google, vou explicar como saber se o site já está indexado ou não, porque no Facebook a pergunta mais recorrente foi: “como saber se meu site esta indexado no Google”

Como saber se meu site está indexado no google

Para saber se o seu site está indexado no Google tem duas formas muito simples.

  1. Abrir o Google e procurar por “site:omeusite.com” (sem as aspas). O Google irá então mostrar “todas” as páginas que estão indexadas.
  2. A segunda forma de saber se o site está indexado é abrir a Search Console e confirmar se já tem Visitas, Impressões ou se o Google já começou a fazer o crawl: abra Google Index >> Index Status.

Note:

Há páginas que não estão indexadas propositadamente. Como por exemplo algumas páginas de campanhas.

Sitemaps

Ter um sitemap é sempre o mais indicado para indexar URL, independentemente se você alterou muitas páginas num domínio ou alterou a estrutura do site.

Sempre que acrescentar uma página, o sitemap deverá ser actualizado. Felizmente este é um processo que poderá facilmente ser automatizado.

forçar google crawl site sitemaps

Através da Search Console do Google é possível adicionar um sitemap. Depois de gerar ou criar um sitemap: nas Ferramentas do Google para webmasters, seleccione o domínio em que aparece, seleccione “rastrear” / “sitemaps” / “adicionar / testar sitemap”, digite o URL (ou, como você pode ver, o domínio URL anexado com sitemap.xml) e ‘enviar’.

Esta medida é fundamental para adicionar o seu site no Google.

Buscar como o Google

Também no webmastar tool do Google, pode encontrar a ferramenta de “buscar como o Google”, ou em inglês “fetch as Google”. Este é o ponto de partida mais lógico para obter um óptimo novo site ou conteúdo indexado.

Como Indexar Site no Google fetch

Se o seu site for indexável (também pode verificar se o site está a ser exibido corretamente), poderá enviá-lo para que ele seja adicionado ao índice do Google.

Esta ferramenta também permite enviar um único URL (“Rastrear apenas este URL”) ou o URL seleccionado e as páginas às quais ele direcciona directamente (“Rastrear este URL e seus links directos”).

Embora ambas as solicitações tenham os seus próprios limites; 10 para a primeira opção e 2 para a segunda.

Adicionar URL no Google – Desactivado

Outra opção era a ferramenta “Adicionar URL” do Google. Tal como o nome indica, esta funcionalidade permiteia adicionar URL no Google de forma “automática” e directa. Era como uma versão mais simples da ferramenta Fetch. Era uma ferramenta mais lenta e simples, sem a funcionalidade e versatilidade do Fetch.  O Google removeu esta funcionalidade durante o Verão de 2018. Era provavelmente a forma mais rápida de indexar um URL.

forçar google crawl site adicionar url

O Google possibilitava também usar o Adicionar URL apenas com uma Conta do Google, em vez de adicionar e verificar uma propriedade/website às Ferramentas do Google para webmasters. Bastava adicionar o seu URL e clicar para garantir que não era um robô!

Esperamos que o Google volte a trás e reactive esta funcionalidade.

Ainda que não seja possível forçar o Google a indexar um site, é possível forçar o Google a fazer o crawl. Por isso, antes de pedir ao Google que leia o seu site, tenha a vcerteza que o seu site está de acordo com as melhores práticas, de modo a evitar ser penalizado ou avaliado negativamente.

Razões para o meu site não estar indexado

Há algumas razões para que o seu site não esteja indexado no Google. Na Google Search Console é possível ver o relatório de erros e o Google diz detalhadamente as razões porque a sua página não está indexada.

O problema é que para websites com milhares de páginas, a Search Console apenas providencia uma amostra (até 1000 páginas) dos erros totais.

E há vezes que o conteúdo do seu site está desactualizado e o Google simplesmente remove da indexação.

Problemas técnicos também podem justificar o não aparecimento do site. Confirme aqui a lista de erros mais comuns em SEO.

Uma das muitas razões para a não indexação de páginas é o conteúdo duplicado. Leia o nosso artigo e entenda as consequências do conteúdo duplicado e como evitar.

Algumas vezes surge a ideia de que se tiver conteúdo oculto na página isso poderá penalizar a página. Geralmente o conteúdo oculto não é um problema para o Google, mas se tiver dúvidas, pode sempre fazer uma auditoria passo por passo para entender como o Google está a interargir com as suas páginas.

Estas são as nossas dicas como indexar site no Google. E vocês, têm alguma dica diferente?

Nova Google Search Console – Novidades e o Futuro

A nova Google Search Console já está aí para todos os web masters – ainda que em fase beta. Explorei a nova versão da Google Search Console com curiosidade e o que trago são boas, não-tão-más e notícias assim-assim.

Muitos de nós são do tempo do “Webmaster tools”, depois o Google mudou-lhe o nome para Search Console, mas os webmasters continuaram com os problema de sempre. O principal: apenas 3 meses de dados.

Há muito que o Google vinha a prometer mais dados na Search Console e a mudança era esperada para este ano. E aí está. Desde Janeiro que a versão beta (que já viu vários layouts e o actual não deverá ser o último!) está disponível para que os webmasters possam partilhar o seu feedback com a gigante americana.

É tudo muito recente e o Google continua a testar a nova Search Console. Nos próximos meses o motor de busca irá adicionar – à agora “nova” – os serviços da “velha” consola. Ambas as versões irão coexistir até que tudo esteja terminado. Desde Janeiro que tenho acompanhado a versão beta do “Webmaster tools” e chegou a hora de fazer um primeiro balanço.

Novidades da Nova Search Console

16 meses de dados! O Google excedeu todas as expectativas, no máximo esperava-se que fossem disponibilizados 12 meses. Esta era a novidade mais esperada pelos webmasters. O Google disponibiliza agora 16 meses de dados (Clicks, Impressions, Av. CTR e Av. Position), permitindo análises automáticas de YoY ou WoW e até MoM.

Até agora, quem queria ter acesso a esses dados teria de construir as suas próprias base de dados e usar o API da Search Console ou então usar uma das ferramentas disponíveis do mercado (o Linkdex disponibiliza essa opção) para conseguir guardar mais do que os 3 meses mostrados pelo Google.

É, aliás, na parte analítica que a nova Search Console mais vem ajudar. Pelo menos até agora. A renovada área de análise, agora conhecida como Performance de Pesquisa, trás novas opções que até agora só estavam disponíveis a quem baixasse os dados através do API.

Tal como acontece com o antigo relatório do Search Analytics, é possível ver cliques totais, impressões totais, CTR médio e dados de posição médios no mesmo gráfico. Mas onde os webmasters anteriormente eram forçados a escolher entre a filtragem por tipo de pesquisa, consulta, página, país e dispositivo – com apenas uma opção disponível – agora é possível filtrar por múltiplas variáveis ao mesmo tempo.

Mas há mais novidades. A secção do Índice na nova Consola de Pesquisa do Google é uma combinação dos relatórios anteriores de Indíces de Erros e Índices de Rasteio. O novo relatório permite que os proprietários do site vejam como o Google está a indexar o site, bem como identificar e corrigir erros.

É possível visualizar dados por páginas com erros, páginas válidas com avisos, páginas válidas que foram indexadas e páginas excluídas e também sobreposição de dados de impressões no topo. Porém, até ao momento, ainda não é possível ver onde o Google encontrou determinado link – o que é possível na “velha” consola e de extremo valor na hora de saber onde atacar o problema.

Como um belo “plus”, a nova Search Console permite solicitar a actualização do índice do Google após termos resolvido um problema. Ou seja, em vez de termos de esperar que o Google volte a visitar uma página e a volte a avaliar, podemos pedir para que o faça assim que possível ‘ possibilitando recuperar de perdas mais rápido do que nunca.

Relatório de Links

O relatório de links aparece com nova cara. e com mais precisão, por isso é provavel que apareçam menos links nesta nova versão. 

Fica aqui uma imagem do relatório que mostra que o novo relatório de links, para links externos, está dividido em (a) top linked pages e (b) top linking sites.

top link sites relatorio de links search console

Imagens roubadas ao seroundtable.com.

Há – e haverá – mais umas quantas pequenas novidades. Mas considero que estas são as principais.

À versão beta da nova consola ainda serão adicionados muitos dos serviços. Muitos dos dados da antiga Consola ainda terão de ser migrados.

Para já o balanço é muito positivo, mas a “velha” Search Console ainda está para durar.