Lista de blogs de SEO em Português

blogs de seo em portugues

A SEO Portugal é um blog de SEO em Português, onde abordamos temas relacionados ao marketing digital que directa ou indirectamente afectam a performance orgânica de um site. Mas há outros blogs de SEO em português que nós consideramos que valem a pena ser seguidos.

Esta é uma lista de blogs de SEO em português (com sotaque brasileiro ou lusitano) que provavelmente peca por defeito. Se tiverem sugestões de outros blogs de SEO deixem nos comentários.

Desde já a nota: obrigado a todos os tweeteiros que nos ajudaram a elaborar esta lista, nomeadamente ao Pedro Dias, à nossa unicórnio de leads Joana Rita Sousa 🦄 e ao Bruno Mujique Amaral. Se não os seguem no Twitter, deveriam…

blogs de seo em portugues

Lista de Blogs de SEO em Português

Vamos começar logo a matar e com poucas modésticas, porque se não acreditassemos no nosso valor não perdiamos tempo com este blog. Nós somos o Cristiano Ronaldo (ou o Neymar, ou o Messi ou  o Ronaldinho Gaúcho… escolham vocês!) do SEO em português. Ponto.

O SEO Portugal foi criado para divulgar truques e dicas (e algumas novidades, vá…) de SEO e fomentar a curiosidade dos falantes da língua portuguesa sobre o SEO.

Todos os autores do site são reconhecidos SEOs e Digital Marketeers. Basicamente, sabemos do que falamos. Se não nos segues no Facebook ou Twitter – e se não assistes aos nossos webinars de SEO gratuitos – basicamente és totó (viram como eliminámos o artigo indefinido antes do adjectivo e nos tornámos mais inclusivos?!)

Seguindo por terras portuguesas, e com todo o mérito, temos o blog do Marco Gouveia. O Marco Gouveia é Consultor de Marketing Digital, Google Regional Trainer | Head Of Digital Marketing @ Pestana Hotel Group | Consultor SEO, Google AdWords & Analytics  – roubámos do Linkedin – e, portanto, o homem sabe do que fala.

Querem novidades sobre o Google, as últimas tendências e aquela sugestão que vai fazer com que o seu site ganha mais umas centenas ou milhares de visitantes? https://www.marcogouveia.pt/blog/

Já que estamos em consultores, o site do Pedro Dias é um pequeno grande repositório de dados interessantes para entender o SEO.  de facto, até tem uma “Biblioteca de SEO e UX”.

O que é UX? Vão lá e depois digam-nos…

Está comprovado, o SEO Comprovado do Eduardo Borges é claro como a água. Aqui não há banha da cobra, SEO aprende-se trabalhando Não venham com certificados que o Eduardo pede logo resultados.

Novidades no mundo da optimização de sites e ainda alguns mini cursos…

Com sotaque brasileiro o SEO News traz as todas as novidades do mundo orgânico para a língua portuguesa. E, segundo o Pedo Dias, “a Natascha Hun escreve lá”.  “Ela publica algumas coisas interessantes, e com pés e cabeça”.

O Blog tem uma secção dedicada a Palestras e Cursos de SEO.

Um dos maiores erros das agências é não cuidarem da sua própria imagem, redes sociais ou SEO. A Agência Mestre faz jus ao nome e ajudam o cliente a entender a importância do SEO com artigos bem pertinentes.

A Conversion é uma agência de SEO. Vale a pena seguir o seu blog, sobretudo devido às dicas de SEO local. Os artigos são de fácil leitura e ajudam muito, sobretudo, se está num nível ainda básico de marketing orgânico.

Sim, é uma tool de SEO e querem vender, mas a verdade é que há poucos argumentos melhores do que mostrar que se sabe do que se fala. O Semrush tem um blog em português com dicas e estudos super interessantes.

Tendo um blog sobre SEO em português é só mais uma vantagem que oferecem.

A Nova Escola de Marketing é do Rafael Rez, e é uma biblioteca online de saber. Marketing inbound, conteúdo, marketing digital… até tem Cursos de Marketing Digital. O sabor a Terras de Vera Cruz é só mais um plus.

Ps: É um site apoiado pelo Semrush!

Tens um blog de SEO e nós não sabemos? Deixa-nos a sugestão nos comentários.

 

 

Queria ser Jornalista, mas fugi para o Marketing e dei por mim a trabalhar como SEO. Em agência ou in-house, já trabalhei com projectos do Spotify, Telepizza, Amazon, Hostelbookers, Hostelworld, 360imprimir ou EF Education First. Sonho um dia ainda voltar a Portugal e viver do Marketing Digital. Fundei a SEOPortugal para ajudar a divulgar o SEO e partilhar algum conhecimento.

Conteúdo duplicado prejudica o ranqueamento?

Conteúdo Duplicado - perguntas frequentes

Um dos maiores mitos sobre SEO é que conteúdo duplicado prejudica o ranqueamento. Nós vamos explicar porque é um mito e onde está o verdadeiro problema de ter conteúdo duplicado num site.

Vou tentar esquematizar pelas perguntas que mais me fazem.

Conteúdo Duplicado - perguntas frequentes

  • Não há penalização por conteúdo duplicado

Vamos ponto por ponto. O Google não tem uma penalização para sites com conteúdo duplicado, nem para sites que roubem artigos de outros sites para publicarem nos seus. O que acontece é uma valorização por conteúdo único, o que é diferente.

Além do mais, se tens conteúdo duplicado no teu site, o que acontece é que o Google vai ranquear uma página e avaliar se penaliza as outras (ou outra) – mas não o domínio.

    • Como descobrir conteúdo duplicado

Descobrir conteúdo duplicado no nosso próprio site é fácil. Há várias opções e talvez o melhor seja mesmo usar todas elas para estar certo que não há duplicação de conteúdo.

  1. Usar um crawler (Screaming Frog, AHREFS, Semrush…) e fazer um levantamento de todos os URLs, Meta Titles, Meta Description, H1 e conteúdo “on page”.
  2. Utilizar um Ranking Tracker e confirmar se é realmente a página correcta que está a ranquear para cada uma das Keywords.
  3. Usar a informação do Search Console parra encontrar meta titles e descriptions duplicadas. Ver, também, relatório de páginas que foram excluídas por haver páginas mais relevantes.

Para saber mais como fazer uma auditoria, aconselho o artigo de Morino Neto: “Como fazer uma auditoria de SEO“.

Para encontrar conteúdo seu duplicado em outro blog é um pouco mais complexo. De uma forma básica eu uso as minhas ferramentas de ranking para saber se há alguém a ranquear melhor do que eu. Quando há eu analiso os seus textos. Este é um processo bem manual, mas eu não me preocupo que alguém use os meus textos se não estiverem a ranquear melhor do que eu.

  • Como eliminar conteúdo duplicado

Para eliminar ou corrigir conteúdo duplicado no seu próprio site a melhor solução é colocar canonical tags. Ou, caso não precise das páginas, eliminar as páginas duplicadas.

Outra solução poderá ser o uso de “no index” tags.

Cada caso é um caso e devem ser avaliados todos os bbenefícios.

  • O que fazer quando descobrir que um texto foi duplicado

Bem, se realmente odeia que alguém roube o seu trabalho, ainda que não esteja a ranquear melhor – o que é perfeitamente justo – então tem duas soluções:

a) Entrar em contacto com o blog que copiou o conteúdo e pedir que o mesmo o tire do ar ou que cite a fonte original. Pode ser que consiga um link!

b) Há a opção de denunciar aquele conteúdo como spam ou plágio para o próprio Google através do seguinte link: https://www.google.com/webmasters/tools/spamreport?hl=pt_BR&pli=1

  • Conteúdo duplicado não aumenta o tráfego do seu blog

Como já vimos, o Google quando encontra duas páginas com o mesmo conteúdo tende a seleccionar só uma para ranquear. (Nota: isto não funciona sempre, até porque os jornais tendem a ter notícias muito semelhantes e o Google não os pode penalizar por isso)

O Google usa alguns factores para ranquear melhor uma página que outra, quando ambas têm o mesmo conteúdo: data da publicação, autoridade do domínio ou autor do artigo.

Portanto, sim o Google não gosta de conteúdo duplicado, mas se me pergunta se conteúdo duplicado prejudica o ranqueamento, então a resposta é não… Mas também não ajuda em nada. Aliás, é só perda de tempo.

 

Queria ser Jornalista, mas fugi para o Marketing e dei por mim a trabalhar como SEO. Em agência ou in-house, já trabalhei com projectos do Spotify, Telepizza, Amazon, Hostelbookers, Hostelworld, 360imprimir ou EF Education First. Sonho um dia ainda voltar a Portugal e viver do Marketing Digital. Fundei a SEOPortugal para ajudar a divulgar o SEO e partilhar algum conhecimento.

Quais os nichos de mercado mais lucrativos?

Quais os nichos de mercado mais lucrativos

Depois de escrevermos sobre como criar um blog de sucesso, o nosso  email foi inundado com perguntas sobre “Qual o melhor nicho de mercado na internet?”, “Quais os nichos de mercados mais lucrativos” ou “Quais os nichos mais procurados na Internet?”.

A resposta não é fácil, mas vamos tentar ajudar…

Quais os Nichos Mais Procurados na Internet?

Comecemos pela pergunta onde o SEO pode rapidamente ajudar: “Quais os nichos  mais procurados na Internet?”. Antes de avançar: nem sempre os nichos mais procurados são de facto os melhores para o seu negócio. Tenha a certeza que domína a área e que tem competência para a trabalhar. Que gosta do tema. E sobretudo, que entende o seu público.

Os micro nichos podem ser rentáveis, e esta é uma técnica para evitar a forte concorrência e ganhar dinheiro em nichos de mercado pouco explorados.

Ferramentas como o AHREFS ou o Semrush podem ajudar a encontrar palavras-chave essenciais para entender o melhor nicho. Para isso, sugiro a leitura de “Análise da Concorrência – Como encontrar oportunidades de crescimento“, de Morino Neto.

Há nichos de mercado que são como o vinho do Porto…quanto mais anos passam, mais apetecíveis se tornam…

Nichos internet

Outros (que não se devem pôr totalmente de lado) que vão e vêm como as marés do mar.

melhores nichos da internet

Google Trends

O Google Trends é uma ferramenta super eficaz para entender as pesquisas em determinados momentos. Por vezes encontram-se oportunidades fantásticas.

Uma dica: é normal encontrar no Google Trends oportunidades que já passaram e que se revelaram super valiosas ou com elevado potencial. Se sabe que essa oportunidade é sazonal e que irá acontecer de novo (em meses ou no próximo ano) coloque já no seu calendário e no próximo ano ataque com força.

Nichos Rentáveis Para Blogs e Sites

Escolher o nicho correcto é fundamental para ter um blog de sucesso e um negócio lucrativo. Um blog pode ser um negócio, assim como um site ou uma conta em Redes Sociais. A vantagem é que é possível criar um negócio a baixo custo, praticamente sem investimento.

Para isso é necessário escolher os nichos mais rentáveis, de outra maneira será difícil ganhar dinheiro e em breve vai perder a motivação. 

É ai que entram o Micro Nichos Rentáveis , é uma forma de “correr por fora” dos grandes blogs que já tem muita autoridade e estão no ar há muito tempo.

Basicamente vamos focar-nos em fatias de mercado sem conccorrência.

Micro Nichos Rentáveis são os nichos não-explorados pelos grandes players do mercado, por isso podem ser muito rentáveis em blogs novos ou com pouco tráfego.

Como encontrá-los? Olhe à sua volta constantemente e pergunte-se: se eu procurar conteúdo online sobre isto que vi na banca de jornais, no centro comercial, na televisão, etc, irei encontrar alguma informação? Se a resposta é negativa, poderá ter acabado de encontrar o seu micro nicho.

O segundo passo é confirmar a demanda de procura. use o Keyword Planner, o AHREFS ou o Google Trends. Se não houver procura, esse nicho não será rentável. pode sempre trabalhar para que haja demanda, mas o esforço vai ser gigante antes de começar a ver algum lucro.

Quais os nichos de mercado mais lucrativos

Os Melhores Nichos Para Ganhar Dinheiro na Internet

Há áreas gigantes para ganhar dinheiro. Os melhores nichos para ganhar dinheiro na internet são, realmente, muito rentáveis. Mas lembre-se que irá combater contra gigantes. Será uma luta de David contra Golias. Se não quer procurar micro nichos, aqui está uma lista de nichos rentáveis que o podem fazer ganhar dinheiro na internet. (Poderá sempre tentar encontrar micro nichos dentro dos nichos maiores!)

  • Saúde

Dentre os nichos mais procurados no Google, o nicho de saúde é de longe o mais disputado, porque é muito rentável. Pense nos lucros da indústria farmacêutica. Não há dúvidas porque é que este é um dos nichos mais rentáveis da internet.

A preocupação com a saúde nunca está “fora de moda” e muitas pessoas são curiosas para saber mais sobre o seu corpo, ou sobre possíveis doenças, por isso um blog sobre saúde com um bom conteúdo original é uma óptima aposta.

  • Nicho de Emagrecimento / Beleza

Estamos no Verão (este texto foi publicado em Julho, ainda que o tempo pareça de Janeiro). Nesta altura do ano as pesquisas sobre dicas de emagrecimento e barriga lisa batem recordes.  Muitos blogs de saúde juntam emagrecimento com o seu conteúdo, por ser um vertente do assunto, e também por serem dois dos nichos mais procurados na Internet, esta combinação pode ser uma óptima forma de gerar mais dinheiro.

Quem fala de emagrecimento fala de beleza e maquilhagem… A concorrência é feroz mas ainda há micro nichos por explorar.

  • Moda Feminina

A moda está sempre em transformação. Por algum motivo, as principais “influencers” dos dias de hoje são mulheres que falam para mulheres. A procura é grande, encontree o seu nicho dentro do nicho e ataque forte. É fácil fazer dinheiro.

Procure pelos sites femininos mais visitados, verá que os temas são quase sempre diferentes (micro nichos): bebés, beleza, make up, bem-estar, fitness… E quase todos associados a moda.

  • Tecnologia

A tecnologia cresce rapidamente, novos smartphones e produtos eletrónicos são lançados todos os mês, vai ser impossível o seu blog não ter sobre o que falar, e principalmente, não ter gente à procura de saber o que está a acontecer de melhor no mundo da tecnologia.

Sites de comparação de preços e produtos são uma excelente ideia.

  • Jogos Online

Há alguns anos o mercado de “gamer” online teve um grande boom, desde então o número de pessoas interessadas neste universo, e o número de notícias, aumenta cada vez mais.

Dos mais jovens aos mais velhos há público e informação para todos os gostos. Escolha o nicho onde se sinta mais confortável.

  • Marketing

O Marketing é das áreas mais “gordas”, poderá escolher um tema mais especifico como por exemplo, o Marketing Digital, Marketing e Publicidade, Internet Marketing ou Web Marketing, Marketing de Rede ou também Marketing Pessoal. Ou, sobre SEO, cof, cof, cof.

  • Futebol

Eu diria desporto, mas em Portugal o futebol é que é o rei. Se quiser arranjar confusão, dores de cabeça, ser maltratado e ganhar dinheiro, faça um blog sobre futebol. Aliás, crie três, um tendencioso para o Benfica, outro tendencioso para o Sporting e outro que defenda o Porto. Gira os três, crie confusão, diga mal dos seus blogs nos outros blogs e rapidamente verá os lucros a entrarem.

  • Apostas Online

Este também é um nicho muito bom, e fácil de trabalhar, apesar de não ter muita procura neste momento, ainda há pessoas a tentar a sua sorte. Este é um super nicho, quando funciona, é super rentável.

  • Viagens

Turismo e viagem é um super nicho. A concorrência é pesada, mas não há impossíveis. Toda a gente gosta de viajar, mesmo não ganhando o suficiente para isso, por vezes juntamos umas economias para fazer a viajem do ano. Onde vamos procurar as viagens mais baratas? Sim, isso mesmo na Internet!

  • Jardinagem

Parece piada, não é? Descobri que este era um nicho muito forte quando ofereci no Natal um conjunto de sementes ao meu pai e ele me perguntou a melhor época para cada uma delas. A minha resposta foi simples: “Procura no Google!”.

Pois, havia poucos resultados.

  • Seguros

Todos nós precisamos de seguro uma vez na vida, nem que seja o seguro do carro, da casa, o seguro de vida, ha sempre alguém nos apresentado seguros para que se algo correr mal ha quem nos ajude.

Conteúdo de comparação de seguros e/ou preços funciona sempre.

  • Culinária

Se é apaixonado pela cozinha, terá centenas de receitas guardadas para si, porque não escrever um livro de receitas e vender?

Pode especializar-se em entrada, em pratos de carne ou de peixe ou até vegetarianos… ou só em pastelaria. Especializar-se em micro nichos, por vezes, é muito mais rentável do que atacar grandes nichos onde estão todos os tubarões.

  • Animais

Os animais estão na ordem do dia. Acredite, não há muitos blogs sobre o tema. Pelo menos, bons blogs com bom conteúdo. Este é um nicho muito interessado, poderá trabalhar em diversas áreas, desde de comida para os animais, poderá vender um produto que ensina a domesticar os seus animais.

Imagine por exemplo ensinar um papagaio a falar? Altamente lucrativo!

Qual o Melhor Nicho de Mercado na Internet?

O mais importante é procurar entre os nichos mais lucrativos da internet um onde se sinta verdadeiramente confortável. Nunca terá sucesso se não gostar do seu trabalho, daquilo sobre que escreve ou se não entender o seu público-alvo.

O melhor nicho de mercado da internet é aquele onde você consegue ganhar dinheiro. E isso é possível fazer em qualquer um. Estes são, para mim, os melhores nichos para ganhar dinheiro na Internet, mas não significa que não existam muitos outros e que não apareçam e desapareçam nichos super rentáveis a toda a hora.

 

Queria ser Jornalista, mas fugi para o Marketing e dei por mim a trabalhar como SEO. Em agência ou in-house, já trabalhei com projectos do Spotify, Telepizza, Amazon, Hostelbookers, Hostelworld, 360imprimir ou EF Education First. Sonho um dia ainda voltar a Portugal e viver do Marketing Digital. Fundei a SEOPortugal para ajudar a divulgar o SEO e partilhar algum conhecimento.

É o Fim do SEO?

Fim do SEO

Para quem já trabalha com sites há quase duas décadas, o anúncio do fim do SEO não é novo. Aliás, o fim do SEO é anunciado a cada ano e – surpresa – continuamos a falar de SEO e de optimização.

Para os mais distraídos deixo aqui um texto sobre O Que é SEO e como somos influenciados por ele todos os dias.

O SEO é praticamente tudo o que seja optimização de resultados. Olhe à sua volta e veja a quantidade de motores de busca que há: Google, Youtube, Google Play (ASO), iTunes, Bing, Amazon… Acha mesmo que é o fim do SEO?

A cada actualização do algoritmo do Google, a cada mudança do Adwords, lá ouvimos alguém reclamar que estamos a assistir ao fim do SEO. Mesmo que um dia o Google desapareça como motor de busca, o SEO irá continuar a existir. Com outro formato, com outras regras, mas o seu site e o seu conteúdo irá continuar a precisar de ser encontrado.

Sim, fazer SEO será cada vez mais difícil, com mais desafios, mas não irá desaparecer. Vale a pena investir em SEO? Bem, enquanto os ganhos superarem o investimento, eu diria que sim!

Desafios de optimização

Para quem se dedica ao conteúdo, os grandes desafios passam pela adaptação/optimização da mensagem em diferentes plataformas. O modo como procuramos no Google é diferente do modo como procuramos no Youtube, que por sua vez é diferente do modo como procuramos  nas Lojas de App ou até na Amazon.

As equipas de Content têm em mãos muito trabalho e terão que se adaptar rapidamente aos diferentes ambientes.

Fim do SEO Tradicional?

Há quem me aborde a perguntar se esta minha posição não sugere que estamos perante “o fim do SEO tradicional”. A minha pergunta não pode ser mais directa: o que é o SEO tradicional?

Dizer que há SEO Tradicional é assumir que há um SEO não tradicional, talvez chamado novo SEO. O que será este novo SEO? O novo SEO é o nome dado as práticas hoje aceites? Há 15 anos o SEO era colocar um texto com centenas de keywords para se ranquear no Google. Era, por exemplo, esconder keywords a branco em textos em nada relacionados… o que é afinal o SEO tradicional? E o que é afinal o novo SEO?

O SEO desenvolve-se a cada dia e o SEO de ontem – literalmente ontem – não é o mesmo de hoje e não será o mesmo de amanhã. O SEO é por isso uma arte mutável a que profissionais e empresas se têm que adaptar com agilidade.

Portanto, o SEO vai acabar? Talvez. Não agora. Não enquanto pesquisarmos por apps, por música, por vídeos, por compras… Enquanto houver pesquisas na net, o SEO irá existir.

 

Queria ser Jornalista, mas fugi para o Marketing e dei por mim a trabalhar como SEO. Em agência ou in-house, já trabalhei com projectos do Spotify, Telepizza, Amazon, Hostelbookers, Hostelworld, 360imprimir ou EF Education First. Sonho um dia ainda voltar a Portugal e viver do Marketing Digital. Fundei a SEOPortugal para ajudar a divulgar o SEO e partilhar algum conhecimento.

Technical SEO: Os erros mais comuns e tão fáceis de resolver

Technical SEO erros mais comuns

O Technical SEO não é algo tão complicado depois que entendemos os básicos. Sim, ajuda se tivermos alguns conhecimentos – ainda que básicos – de HTML, php, java, etc…

Os nossos sites estão constantemente perante problemas técnicos que podem prejudicar a sua performance orgânica. As auditorias técnicas as sites devem ser feitas de forma constante e pró-activa. O Technical SEO base não precisa ir além de uns quantos crawls com o Screaming Frog.

Aqui pode ler como Como Fazer uma Auditoria de SEO !

Identificar erros de rastreamento com um relatório de rastreamento

Fazer um crawl, seja com o Screaming Frog, SemRush, AHREFS ou qualquer outro crawler, é o mínimo que se deve fazer a cada mês ou par de meses (sobretudo em sites com muitas páginas).

Ao fazer estes relatórios de forma periódica é possível ver e identificar os problemas técnicos mais urgentes de SEO, como conteúdo duplicado, baixa velocidade de carregamento página ou falta de tags H1 / H2.

É possível automatizar auditorias de site usando uma variedade de ferramentas de SEO e trabalhar com a lista de erros ou avisos criados pelo rastreamento. Essa é uma tarefa na qual se deve trabalhar mensalmente para manter o site sem erros – bem, pelo menos com o menor número possível – e o mais optimizado possível.

Erros de Technical SEO Mais Comuns

  • Conteúdo Duplicado

Vamos começar com a pedrada no charco: conteúdo duplicado! Ainda que conteúdo duplicado não pareça directamente um problema técnico, de facto, muitas vezes os problemas de duplicação têm origem técnica.

O conteúdo duplicado NÃO penaliza o site. Ou seja, o facto de ter muitas páginas duplicadas não prejudica o domínio, mas prejudica sim o alcance total das páginas que tem, uma

vez que o Google irá escolher uma página para indexar e eliminar todas as demais.

As causas mais comuns passam por falta de canonical tags, criação de muitas páginas de categorias ou tags.

Duplicação de Titles, Descriptions e H1 devem ser evitadas a todo o custo

  • Páginas sem H1

É mau ter páginas com o mesmo H1, mas é igualmente mau ter páginas sem H1. o H1 é o Título na página e cada página deverá estar devidamente identificada sobre o seu conteúdo

rastreio - erros técnicos de SEO
Estudo do SemRush – Clicar na imagem para ler artigo
  • Configuração Incorrecta do www

Na altura de configurar o seu domínio pode escolher apresentar as páginas com o subdomínio www. ou sem www. Não há penalização de usar uma ou outra forma, mas tenha a certeza que usa a mesma forma em todo o site e redirecciona a forma não usa

da para a que está activa.

O www. é considerado um subdomínio e por isso os URLs com e sem www. são vistos como páginas diferentes. Se apresentar o conteúdo nas duas versões o Google irá considerar isso duplicação de conteúdo.

Na Googlle Search Console pode ajudar o Google a entender a qual das versões deve ser dada prioridade.

  • Optimização das Imagens

Optimizar Imagens para SEO não é simplesmente ter ALT tags. O nome do ficheiro (e respectivo URL da imagem) devem estar optimizados. Mas isso é a parte de conteúdo. Tecnicamente falando, lembre-se que quase todos nós acedemos à net – cada vez mais – através de smartphones. Imagens muito pesadas e que demoram a carregar vão estragar a usabilidade e prejudicar na hora de ranquear.

  • Cadeia de Redireccionamentos

Criar redireccionamentos ajuda a não ter links quebrados no site. Porém, ao fim de alguns meses (anos?) encontramos situações onde o antigo URL A redirecciona para o B que agora redirecciona para C que por sua vez resolve em D. A isto chamamos cadeia de redireccionamentos e, como já deve estar a perceber, devem ser corrigidos.

Se A tem mesmo que ser redireccionado então deve ser redireccionado para D. E quanto a B? Bem, é mesmo neccessário manter B? Há backlinks para B? Há inlinks para B? Há alguma razão para manter B? Se sim, então B deve ser redireccionado para D, caso contrário podemos eliminar o redireccionamento.

Já agora falemos de loops! Ou seja, A redirecciona para B e B para C e C para A… o site nunca irá abrir. O Screaming Frog tem um relatório específico para estas situações. É fácil de encontrar estes problemas.

  • 404 – páginas não encontradas

Um dos piores erros que pode existir: uma página que não abre. Quando nosdeparamos com um 404 temos de perceber alguns pontos:

  1. Queremos mesmo que
  2.  esta página resolva 404? – Se sim, então devemos remover todos oos inlinks do nosso site;
  3. Este é um conteúdo que existiu mas foi removido de vez para nunca mais voltar? Se sim, talvez devessemos considerar aplicar um código 410 e remover todos os inlinks.
  4. Há uma outra página que pode responder aos interesses dos usuários e que substitua esta? Se sim, talvez devessemos redireccionar (301) ou mudar directamente os inlinks
  5. É uma página que está temporariamente fora do ar? Se sim, talvez possamos redireccionar (302) para uma página que responsa aos interesses do utilizador ou para a homepage.
  • Links internos com “nofollow”

Qual o interesse de ter links internos que não queremos que o Google não siga? Porquê não passar “juice” de uma página para outra? Bem, se realmente há uma razão, então bom trabalho. De outra forma, os inlinks devem ser todos “follow”.

Problemas SEO tecnico Sitemap
Clicar na imagem para ler “40 Erros Técnicos de SEO – Pesquisa da SEMrush”
  • Sitemap

O sitemap é fundamental para o Google descobrir todas as suas páginas e entender a estrutura do seu site. Além do mais, se dividir o seu sitemap por grupo de páginas poderá entender  que páginas o Google indexa melhor e quais o Google gosta menos.

Não tente contabilizar os ganhos de ter ou não um sitemap. Está a perder dinheiro enquanto tenta justificar o investimento. Se usa wordpress, veja aqui os melhores plugins para wordpress.

Ter páginas bloqueadas por robots.txt ou com tag no-index no sitemap não é boa prática.

Tenha a certeza que o Google encontra o seu sitemap e que ele está bem configurado.

  • HREFLANG

Para sites com versões em diferentes idiomas é nececssário ter as hreflang tags bem definidas. Tenha a certeza que as páginas apontam para as equivalentes em cada idioma. Seja em html ou no sitemap.

  • Robots.txt

Erros no ficheiro robots.txt podem causar problemas de indexação. Tenha a certeza que o seu ficheiro está correcto, no formato correcto, que o Google o consegue encontrar e que está submetido no Google Search Console.

Se tiver dúvidas, pode ler aqui como forçar o Google a fazer o crawl do site.

technical SEO - Problemas velocidade página
Clique na Imagem para ver o relatório do Semrush
  • Velocidade de carregamento da página

Uma página que demora mais de 3 ou 4 segundos a carregar/abrir é uma página que potencialmente irá trazer problemas aos seus utilizadores. Sobre a velocidade dos sites pode ler estes artigos:

  1. Como deixar um site em WordPress mais rápido
  2. SEO Mobile, Mobile Speed, AMP e PWA
  • Páginas AMP sem canonical tag

Este é um erro menos comum – até porque a implementação de AMP não é tão usual – mas serve para fechar esta lista não exaustiva de erros técnicos.

Queria ser Jornalista, mas fugi para o Marketing e dei por mim a trabalhar como SEO. Em agência ou in-house, já trabalhei com projectos do Spotify, Telepizza, Amazon, Hostelbookers, Hostelworld, 360imprimir ou EF Education First. Sonho um dia ainda voltar a Portugal e viver do Marketing Digital. Fundei a SEOPortugal para ajudar a divulgar o SEO e partilhar algum conhecimento.

Como Fazer uma Auditoria de SEO completa em 12 passos

o que e SEO

Saber como fazer uma auditoria de SEO é a grande diferença entre um excelente trabalho e um mau trabalho de análise de SEO. A importância do SEO no desenvolvimento das estratégias de Marketing e Vendas das empresas portuguesas tem vindo, finalmente, a aumentar.

O crescente número de oportunidades para SEO Managers e Specialists no LinkedIn e sites de emprego, bem como o crescimento da procura de consultores e profissionais freelancers de SEO é um reflexo disso mesmo. Entretanto, o mercado português é, ainda, escasso na oferta de profissionais qualificados e com experiência relevante nessa área, e a falta de investimento em SEO por parte das empresas no passado é, em parte, responsável por este cenário de falta de profissionais de SEO.

Quando se começa a trabalhar o canal orgânico de uma empresa, há certas análises que têm que ser feitas para que o profissional de SEO possa conhecer o site e com base nesse conhecimento definir a “to-do list” por ordem de prioridades e criar a estratégia de SEO da empresa.

Neste artigo vou apresentar uma forma simples, mas completa de como fazer uma auditoria de SEO. Vamos a isto!

Search Engine Crawl

Para quem não sabe como funciona os motores de busca, o crawl é a função mais básica e importante da web. O Google descobre os sites e páginas na internet ao seguir os links disponíveis e a função básica (e das mais importantes) dos profissionais de SEO é garantir que o Google consegue ter acesso a todas as páginas do site que queremos indexadas. Tendo em conta que o Google só consegue ler links no formato html <a href=” uri ” anchor</a>, devemos garantir que todos os links estão nesse formato e não num formato que o Google não valoriza, como em Javascript, por exemplo.

Como verificar se o Google consegue fazer Crawl a todo o site?

Uma forma simples de analisarmos se o Google consegue ou não fazer crawl a todo o site é:

  1. Fazer o crawl ao site com o ScreamingFrog – partindo do princípio que os urls descobertos por esta ferramenta serão os mesmo que os bots do Google conseguem descobrir. Fazer um filtro na coluna “Canonical Url” de forma a ficarmos apenas com a versão canonical dos urls.
  2. Ir ao Google Analytics e buscar o tráfego de todos os canais por página de destino: Comportamento >> Conteúdo do Site >> Página de Destino.
  3. No excel fazer uma fórmula vlookup, de maneira a identificar as páginas do site que têm tráfego no Analytics, mas que não existem no ScreamingFrog.

Com esta análise conseguimos identificar as páginas órfãs, isto é, as páginas para as quais temos tráfego de campanhas pagas, mas que não têm links internos no site.

Search Engine Indexing

Após fazer o crawl e identificar todas as páginas (que estão acessíveis por inlink) do site, o Google irá indexá-las e mostrá-las nos resultados de pesquisa, sempre que considerá-las relevantes para a pesquisa feita.

Uma tarefa importante nesta análise é fazer uma comparação entre o número de páginas existentes (páginas descobertas no crawl do ScreamingFrog) e o número de páginas indexadas. Se descobrirmos que o site tem um número elevado de páginas, mas apenas uma pequena percentagem delas está a ser indexada pelo Google, devemos identificar as causas e fazer sugestões de melhoria.

Como identificar o número de páginas indexadas no Google?

Para identificarmos o número de páginas que o site tem indexadas no Google devemos:

  1. Abrir o Google Search Console.
  2. Clicar em índice do Google e em seguida em Estado do Índice.

Teremos acesso a um quadro com o número de páginas indexadas no momento e em baixo consta um gráfico com a evolução do mesmo número nos últimos 90 dias.

paginas-indexadas-no-google-search-console

Sitemap

O sitemap.xml é um ficheiro que serve para dizermos ao Google todas as páginas do nosso site que nós queremos que sejam indexadas. Tendo em conta essa definição, é importante perceber, primeiro, que o conceito de “as páginas que nós queremos que sejam indexadas”, significa, acima de tudo, que deve constar todas as páginas que nós não estamos a dar sinal ao Google para não indexar.

Há várias formas de darmos sinal ao Google para não indexar uma página – usar a diretiva Noindex, bloquear a página no ficheiro robots.txt, fazer um redireccionamento 301 para outra página ou ter na página o canonical para outro url. Deve-se ter em atenção de não incluir essas páginas no sitemap, de forma a não mostrar uma mensagem inconsistente ao Google.

Depois de preparar o ficheiro sitemap.xml com todas as páginas que queremos que sejam indexadas, devemos testar e submeter o ficheiro no Google Search Console e esperar que o Google faça o crawl ao site e decida pelas páginas que irá indexar.

Importa referir que um sitemap tem um limite de urls de 50.000 urls por ficheiro, caso o número de urls do site ultrapasse esse limite, o ideal é criar vários ficheiros sitemap por tipo de páginas, por exemplo, um ficheiro para páginas de produto, outro para artigos do blog, outro para a homepage e páginas do footer, entre outras e agregar todos esses ficheiros num ficheiro Mãe, que agrupe todos os outros.

Mais informações neste link.

Robots.txt

O ficheiro robots.txt serve para que possamos dizer ao Google, e a outros motores de busca, como devem fazer o crawl e indexar as páginas do nosso site.

Um ficheiro robots.txt deve ter o seguinte formato:

User-agent: *

Disallow: / “uri das páginas ou folders que queremos bloquear o acesso aos robots”

Sitemap: http://www.exemplo.com/sitemap.xml

Depois de criado, o ficheiro robots.txt deve ser testado e submetido no Google Search Console. Neste guia do Google temos informações mais detalhadas sobre como deve ser criado o ficheiro.

HTTP Status Code

O crawl feito no ScreamingFrog no primeiro passo serve para identificar todos os urls do site. Cada um desses urls tem um HTTP Status Code associado. Tecnicamente, um status code é uma mensagem enviada pelo servidor quando o request feito pelo browser pôde ou não ser realizado. Quando está tudo ok com a página, o status code enviado ao browser é o 200, quando a página não foi encontrada é enviado o code 404, quando há um erro com o servidor é enviado o code 500 e quando o url direciona para outra página a mensagem enviada pelo servidor é o HTTP status code 301.

Este artigo do blog Yoast faz uma explicação detalhada sobre cada um desses HTTP status code. O que os profissionais de SEO devem ter em atenção é que o que queremos é que grande percentagem dos nossos urls enviem o código 200. Se tivermos 404 ou 500, devemos identificar as causas e propor soluções. Caso o site tenha muitas páginas com redireccionamento 301, devemos ver o que podemos fazer para minimizar essa situação, de forma a ter o site otimizado para melhor aproveitar o crawl budget.

PageSpeed e Análise da Performance

O Google já tinha confirmado no passado que o PageSpeed era muito importante em Desktop e veio agora esclarecer que também já é um fator de ranqueamento em mobile. Ignorar esse fato não é, certamente, uma boa solução. Sabendo disso, devemos tratar de analisar a performance do site e identificar pontos de melhoria. O PageSpeed Insights, GT Metrix, Pingdom e a extenção Lighthouse do Google são as ferramentas que eu aconselho a serem usadas nesta análise.

Como essa análise é feita por url, eu sugiro que se escolha um url para cada tipo de página – homepage, página de produto, página de categoria, entre outras – e que esse url seja analisado nas ferramentas. Para além de identificarem os principais problemas técnicos do site, as ferramentas também sugerem pontos de melhoria. Essa análise deve servir para ser a base de todo o trabalho técnico de SEO do site.

É necessário ter em atenção que as ferramentas sugeridas anteriormente trabalham tendo em conta o antigo protocolo web. Caso o site que se esteja a analisar tenha suporte para o novo protocolo HTTP/2, algumas das sugestões de melhoria deixam de ser necessárias, pois como o HTTP/2 não faz um request para cada ficheiro, algumas “boas práticas” podem ser ignoradas.

Para verificar se o site suporta ou não HTTP/2 podemos usar esta tool. Basta inserir o url e clicar em Test.

teste-site-suporte-http2

Structured data

Os dados estruturados são uma forma de darmos uma “estrutura” aos dados que temos nas páginas do nosso site. Para isso devemos usar o vocabulário presente no projeto Schema, no formato JSON-LD. Isso ajuda os motores de busca a perceberem melhor os conteúdos da página e aumenta a possibilidade de mostrar resultados ricos na página de resultados, como este exemplo quando pesquisamos por “apple”:

apple-knowledge-graph

De forma a verificar se o site tem implementado algum markup de dados estruturados e se essa implementação está bem feita, podemos usar a ferramenta de testes desenvolvida pela Google. É necessário ter em atenção que essa análise é feita ao nível da página, portanto se pretendemos analisar a implementação em todo o site, devemos fazer esse processo para um url por cada grupo de páginas.

O Google desenvolveu uma ferramenta que nos ajuda a fazer os markups por página. Para isso basta escolher um tipo de página – artigo, página de produto, crítica de livros e etc – e fazer a marcação dos dados. Quando a marcação estiver feita, tem apenas que clicar em “CRIAR HTML” para obter os dados estruturados em formato HTML para ser implementado no código da página.

Paridade de Conteúdos em Mobile e Desktop

O Mobile First Index está aí! Muitos sites já receberam a notificação do Google a serem informados que foram migrados para mobile first índex. Hoje, mais do que nunca, é importante ter em atenção não só à experiência do utilizador em mobile, mas também a experiência dos bots do Google em mobile. É determinante que exista uma paridade de páginas e conteúdos nas versões do site em mobile e em desktop.

O que é importante analisar?

De forma a garantirmos uma consistência em termos de páginas e conteúdos do nosso site em mobile e desktop há dois fatores fundamentais:

  1. Todas as páginas que existam em desktop, devem também existir na versão mobile e vice-versa.
  2. O conteúdo dessas páginas deve ser exatamente o mesmo, em ambas as versões, ou seja, devemos garantir que temos os mesmos urls, títulos, descrições, headings, imagens, vídeos e conteúdo das páginas.

Como analisar?

Para fazermos essa análise devemos fazer dois crawls ao site no ScreamingFrog, um a utilizar o User Agent de desktop e outro a usar o User Agent de Smartphones. Depois disso, devemos fazer export para excel de ambos os crawls começar a analisar:

  1. O número de urls é o mesmo nas duas versões?
  2. Os urls identificados no crawl em desktop são os mesmos da versão mobile? E vice-versa? Quais são os urls que estão em falta em cada uma das versões?
  3. Nos urls que têm correspondente nas duas versões, como estamos ao nível de conteúdos? Isto é, existe uma paridade ao nível dos títulos, descrições, headings, imagens, vídeos e conteúdo das páginas?

Neste artigo da MOZ poderá encontrar informações mais detalhadas sobre como fazer esta análise.

Analisar Conteúdos Duplicados

A duplicação de conteúdos é um problema muito sério para a performance dos sites nos motores de busca. É muito comum a existência de títulos, descrições e headings duplicados no site. Devemos identificar essas situações e proceder à sua correção.

Como identificar conteúdos duplicados no Google Search Console

  1. Abrir o Google Search Console e selecionar a propriedade
  2. Clicar em Search Appearence
  3. Clicar em HTML improvements

Nesse relatório é possível identificar os campos que o Google marcou como duplicados.

Como identificar conteúdos duplicados Screaming Frog

O relatório do Google Search Console depende muito da forma como o Google faz crawl ao site. Pode haver situações, como as que foram descritas no inicio deste texto, em que o Google ainda não tenha feito crawl ou não tenha indexados certos urls, devido a isso, o Google não os identifica como duplicados no Google Search Console. Se confiarmos cegamente nessa métrica corremos o risco de ter muitas páginas duplicadas e não darmos por isso. De forma a mitigar esse fato, devemos procurar identificar conteúdos duplicados também em outras tools. Vou mostrar como se faz no ScreamingFrog:

  1. Abrir o ficheiro em excel do crawl feito anteriormente
  2. Selecionar a coluna do title
  3. Clicar em Formatação Condicional > Regras para realce de células e Duplicar Valores

Depois disso, basta fazer um filtro por Cor e temos, assim, acesso a todos os títulos duplicados. Essa análise deve ser feita também para as descrições e headings.

Analisar o tráfego orgânico

Analisar o tráfego proveniente dos motores de busca é muito importante no primeiro contacto com o site. Devemos olhar para o tráfego orgânico como um todo, de forma a conhecermos as tendências de tráfego, a sazonalidade do negócio e possíveis penalidades do Google que o site tenha sofrido. É importante que essa análise seja feita para diferentes períodos de tempo, de forma a facilitar a comparação entre eles. Devemos fazer uma comparação YoY (year over year) para os anos em que temos os dados disponíveis, bem como uma comparação WoW (week over week) para os últimos 12 meses. Assim será possível ter uma perceção geral do tráfego orgânico do site. Para executarmos essa análise devemos fazer o seguinte:

  1. Tendências, Sazonalidade e Penalidades – ir ao Google Analytics >> selecionar o segmento “Tráfego Orgânico” e fazer: Aquisição >> Todo o Tráfego >> Canais >> Selecionar o Canal Orgânico. Selecionar o intervalo de datas para os últimos 12 meses. Reparar na tendência de tráfego e verificar a tendência do tráfego. Nos momentos de queda, perceber se a queda está relacionada com a sazonalidade do negócio ou se o site foi penalizado pelo Google. Uma boa dica é ter um calendário com os feriados do mercado em que estamos a analisar destacados, bem como as datas em que o Google lançou update. Assim será fácil perceber se o site caiu por sazonalidade ou se foi apanhado por algum update do Google.
  2. Top Performing Pages: ir ao Google Analytics, selecionar o segmento “Tráfego Orgânico” e fazer: Comportamento >> Conteúdo do Site >> Página de Destino. Selecionar o intervalo de datas para os últimos 12 meses. Com esta análise é possível identificar as principais páginas do site em termos de tráfego orgânico. Tendo essa informação como base é possível priorizar o trabalho de otimização das páginas, por exemplo: podemos começar por otimizar as páginas do site que estejam no Top 20 de tráfego orgânico. Podemos também agrupar os urls por grupos de páginas (páginas de produto, artigos do blog, páginas de categoria e etc e identificar o volume de tráfego de cada um deles).

 

Canibalização de Palavras-Chave

Todos os sites, uns mais e outros menos, têm vários concorrentes no Google. A última coisa que nós queremos é que o nosso site esteja a competir com ele próprio nos resultados de pesquisa. Isso, apesar de ser um raciocínio simples, é, na verdade, um problema que acontece muitas vezes. Os sites estão sempre a criar novas páginas, e isso acontece, por vezes, sem ter em conta as páginas que já existentes. Como muitas vezes as páginas têm conteúdo muito parecido o Google posiciona-as para as mesmas palavras-chave.

Numa primeira análise é importante identificar as situações onde isso acontece e propor a sua correção. Para identificar basta ir a ao Ahrefs e fazer o download de todas as palavras-chave orgânicas do site. De seguida devemos abrir o ficheiro em excel, ordenar por palavras-chave e destacar os registos duplicados e depois filtrar por duplicados. Uma vez identificadas as palavras-chave que estão a ranquear no Google para mais do que uma página, devemos escolher a página que pretendemos que essa palavra-chave esteja associada e corrigir as outras páginas em que ela esteja a aparecer. Há duas situações comuns que geram problemas de canibalização de palavras-chave, em baixo apresento essas duas situações, bem como uma sugestão de correção.

  1. Utilização indevida da palavra-chave – imagine a caso de um site de e-commerce que venda equipamentos desportivos. Esse site tem duas páginas distintas (/bicicleta-de-crianças e /bicicleta-para-adultos). Agora imagine que na página /bicicleta-de-crianca temos o seguinte copy: “A bicicleta é indicada para crianças, sendo que esta bicicleta não deve ser usada por adultos”. O simples fato de mencionarmos na página o termo “adultos” num contexto em que estamos a falar de “bicicletas” pode fazer com que o Google passa a ranquear a página também para termos de pesquisa relacionados com “bicicletas para adultos”. Por mais estranho que possa parecer, situações parecidas acontecem muitas vezes. Tendo isso em conta, uma dica que eu dou nesses casos é: aproveitar a página para falar de todas as potencialidades do produto, dizer tudo o que temos de bom sobre esse produto, sem mencionar outros produtos ou termos relacionados com outros produtos que estejamos a comercializar no site.
  2. Dois ou mais artigos sobre o mesmo tópico – esta situação também acontece muitas vezes. Imagine que tem um blog sobre marketing. No fim do ano de 2016 publicou o artigo “Dicas criar sua estratégia de marketing em 2017” com o url /dicas-para-criar-sua-estrategia-de-marketing-em-2017. No fim de 2017 publica um novo artigo, agora “Dicas criar sua estratégia de marketing em 2018” com o url /dicas-para-criar-sua-estrategia-de-marketing-em-2018. Esses dois artigos estarão, certamente, a competir para os termos de pesquisa mais populares, tais como: “estratégias de marketing”, “como criar uma estratégia de marketing” e etc. Não faz sentido estarmos a competir com nós próprios. Para resolvermos situações parecidas com essa eu proponho consolidar os dois artigos num só, com as dicas mais úteis e atuais e criar um novo url “/estratégia-de-marketing” e, se necessário, fazer um redireccionamento dos artigos antigos para o novo. Esse url passa a ser uma componente que não deve ser mudada. O artigo pode agora ser atualizado todos os anos como pretende. Pode ter a referência do ano em questão no título, descrição e copy do artigo à vontade. Só não o deve ter no url. Assim, evita estar a competir no Google para as mesmas palavras-chave.

O blog do Ahrefs tem um artigo muito interessante sobre canibalização de palavras-chave.

Analisar backlinks

A importância dos backlinks (links de outros sites a apontar para o nosso) como fator de ranqueamento já não é a mesma de há uns anos atrás, isso é indiscutível, mas que ainda são um forte fator de ranqueamento isso ninguém duvida. Para falar deste tema eu teria que escrever outro artigo, portanto não vou entrar por aqui. Se por um lado ter bons links ajudam, e muito, no posicionamento do site nos motores de pesquisa, os maus links também influenciam, mas neste caso, negativamente.

Isso acontece, pois, o Google prejudica os sites que criaram muitos links spam. Nesta primeira análise ao site o que eu sugiro é que se identifique no Ahrefs todos os backlinks do site que tenham um Domain Rating inferior a 15 (são provavelmente spam ou links de baixo valor) e fazer uma análise detalhada a cada um desses urls. Podemos usar a extenção BULK URL OPENER para abrir vários urls ao mesmo tempo. O que queremos aqui é analisar a olho a qualidade do site que tem um link a apontar para nós. Tenho por hábito analisar se o site tem muita publicidade intrusiva, a posição do link na página (se é um link contextual ou se aparece numa posição menos favorável, como por exemplo no footer, entre outros fatores que chamam a atenção para links spam) e que se faça disavol a esses links no Google Search Console.

Esse conjunto de analises permite perceber como está a saúde do site e como ele está preparado para os desafios de SEO. Com base nos resultados de cada uma das análises é possível identificar pontos de melhoria, atribuir uma prioridade a cada um deles e atacar para melhorar o site.

Sou licenciado em Gestão de Empresas e estou a concluir o mestrado em Gestão de Informação na especialidade de Marketing Intelligence. Em termos profissionais, sou apaixonado por SEO e tenho tido a felicidade de contribuir com projetos desafiantes e ambiciosos. Tenho experiência como SEO Executive em ambiente de agência e SEO Analyst in-house. Neste momento dou o meu contributo como SEO Manager na Outsystems. O meu objetivo aqui na SEO Portugal é partilhar um pouco da minha experiência, de forma a criar uma cultura mais voltada para o SEO no mercado português.