O Technical SEO não é algo tão complicado depois que entendemos os básicos. Sim, ajuda se tivermos alguns conhecimentos – ainda que básicos – de HTML, php, java, etc…
Os nossos sites estão constantemente perante problemas técnicos que podem prejudicar a sua performance orgânica.
As auditorias técnicas as sites devem ser feitas de forma constante e pró-activa.
O Technical SEO base não precisa ir além de uns quantos crawls com o Screaming Frog.
Aqui pode ler como Como Fazer uma Auditoria de SEO !
Identificar erros de rastreamento com um relatório de rastreamento
Fazer um crawl, seja com o Screaming Frog, SemRush, AHREFS ou qualquer outro crawler, é o mínimo que se deve fazer a cada mês ou par de meses (sobretudo em sites com muitas páginas).
Ao fazer estes relatórios de forma periódica é possível ver e identificar os problemas técnicos mais urgentes de SEO, como conteúdo duplicado, baixa velocidade de carregamento página ou falta de tags H1 / H2.
É possível automatizar auditorias de site usando uma variedade de ferramentas de SEO e trabalhar com a lista de erros ou avisos criados pelo rastreamento.
Essa é uma tarefa na qual se deve trabalhar mensalmente para manter o site sem erros – bem, pelo menos com o menor número possível – e o mais optimizado possível.
Erros de Technical SEO Mais Comuns
-
Conteúdo Duplicado
Vamos começar com a pedrada no charco: conteúdo duplicado! Ainda que conteúdo duplicado não pareça directamente um problema técnico, de facto, muitas vezes os problemas de duplicação têm origem técnica.
O conteúdo duplicado NÃO penaliza o site.
Ou seja, o facto de ter muitas páginas duplicadas não prejudica o domínio, mas prejudica sim o alcance total das páginas que tem, uma vez que o Google irá escolher uma página para indexar e eliminar todas as demais.
As causas mais comuns passam por falta de canonical tags, criação de muitas páginas de categorias ou tags.
Duplicação de Titles, Descriptions e H1 devem ser evitadas a todo o custo
-
Páginas sem H1
É mau ter páginas com o mesmo H1, mas é igualmente mau ter páginas sem H1. o H1 é o Título na página e cada página deverá estar devidamente identificada sobre o seu conteúdo

-
Configuração Incorrecta do www
Na altura de configurar o seu domínio pode escolher apresentar as páginas com o subdomínio www. ou sem www.
Não há penalização de usar uma ou outra forma, mas tenha a certeza que usa a mesma forma em todo o site e redirecciona a forma não usa
da para a que está activa.
O www. é considerado um subdomínio e por isso os URLs com e sem www. são vistos como páginas diferentes.
Se apresentar o conteúdo nas duas versões o Google irá considerar isso duplicação de conteúdo.
Na Googlle Search Console pode ajudar o Google a entender a qual das versões deve ser dada prioridade.
-
Optimização das Imagens
Optimizar Imagens para SEO não é simplesmente ter ALT tags. O nome do ficheiro (e respectivo URL da imagem) devem estar optimizados.
Mas isso é a parte de conteúdo. Tecnicamente falando, lembre-se que quase todos nós acedemos à net – cada vez mais – através de smartphones.
Imagens muito pesadas e que demoram a carregar vão estragar a usabilidade e prejudicar na hora de ranquear.
-
Cadeia de Redireccionamentos
Criar redireccionamentos ajuda a não ter links quebrados no site. Porém, ao fim de alguns meses (anos?) encontramos situações onde o antigo URL A redirecciona para o B que agora redirecciona para C que por sua vez resolve em D.
A isto chamamos cadeia de redireccionamentos e, como já deve estar a perceber, devem ser corrigidos.
Se A tem mesmo que ser redireccionado então deve ser redireccionado para D. E quanto a B? Bem, é mesmo neccessário manter B? Há backlinks para B? Há inlinks para B? Há alguma razão para manter B?
Se sim, então B deve ser redireccionado para D, caso contrário podemos eliminar o redireccionamento.
Já agora falemos de loops!
Ou seja, A redirecciona para B e B para C e C para A… o site nunca irá abrir. O Screaming Frog tem um relatório específico para estas situações.
É fácil de encontrar estes problemas.
-
404 – páginas não encontradas
Um dos piores erros que pode existir: uma página que não abre. Quando nosdeparamos com um 404 temos de perceber alguns pontos:
- Queremos mesmo que
- esta página resolva 404? – Se sim, então devemos remover todos oos inlinks do nosso site;
- Este é um conteúdo que existiu mas foi removido de vez para nunca mais voltar? Se sim, talvez devessemos considerar aplicar um código 410 e remover todos os inlinks.
- Há uma outra página que pode responder aos interesses dos usuários e que substitua esta? Se sim, talvez devessemos redireccionar (301) ou mudar directamente os inlinks
- É uma página que está temporariamente fora do ar? Se sim, talvez possamos redireccionar (302) para uma página que responsa aos interesses do utilizador ou para a homepage.
-
Links internos com “nofollow”
Qual o interesse de ter links internos que não queremos que o Google não siga?
Porquê não passar “juice” de uma página para outra? Bem, se realmente há uma razão, então bom trabalho.
De outra forma, os inlinks devem ser todos “follow”.

- Sitemap
O sitemap é fundamental para o Google descobrir todas as suas páginas e entender a estrutura do seu site.
Além do mais, se dividir o seu sitemap por grupo de páginas poderá entender que páginas o Google indexa melhor e quais o Google gosta menos.
Não tente contabilizar os ganhos de ter ou não um sitemap. Está a perder dinheiro enquanto tenta justificar o investimento. Se usa wordpress, veja aqui os melhores plugins para wordpress.
Ter páginas bloqueadas por robots.txt ou com tag no-index no sitemap não é boa prática.
Tenha a certeza que o Google encontra o seu sitemap e que ele está bem configurado.
- HREFLANG
Para sites com versões em diferentes idiomas é nececssário ter as hreflang tags bem definidas. Tenha a certeza que as páginas apontam para as equivalentes em cada idioma. Seja em html ou no sitemap.
Erros no ficheiro robots.txt podem causar problemas de indexação. Tenha a certeza que o seu ficheiro está correcto, no formato correcto, que o Google o consegue encontrar e que está submetido no Google Search Console.
Se tiver dúvidas, pode ler aqui como forçar o Google a fazer o crawl do site.

-
Velocidade de carregamento da página
Uma página que demora mais de 3 ou 4 segundos a carregar/abrir é uma página que potencialmente irá trazer problemas aos seus utilizadores. Sobre a velocidade dos sites pode ler estes artigos:
-
Páginas AMP sem canonical tag
Este é um erro menos comum – até porque a implementação de AMP não é tão usual – mas serve para fechar esta lista não exaustiva de erros técnicos.

Actualmente, SEO Manager na TripAdvisor. Comunicação e SEO são parte de mim. Em agência ou in-house, já trabalhei também com projectos do Spotify, Telepizza, Amazon, Hostelbookers, Hostelworld, 360imprimir ou EF Education First. Fundei a SEOPortugal para ajudar a divulgar o SEO e partilhar conhecimento acumulado de milhares de testes de SEO.