Como implementar Hreflang Tag

hreflang tag Holytrap

Hreflang tag é uma alternate, inserida no código html das páginas de um site ou nos sitemaps, para indicar ao Google que aquele conteúdo possui versões em diferentes idiomas e/ou para diferentes países.

Para aqueles que são mais meticulosos: 

hreflang não é tecnicamente uma tag, é um atributo. Mas é comum ser chamado de tag.

A sua utilização é importante para indicar qual o conteúdo mais adequado para Google em cada país ou, no caso de haver mais de uma língua oficial no país, qual a página correcta consoante o idioma do navegador.

Mesmo que não utilize hreflang tag é possível que o Google consiga perceber que página deve ser mostrada em cada um dos países. No entanto, em geral, é melhor indicar explicitamente as páginas específicas a idiomas ou regiões.

O Google explica neste vídeo como e quando implementar as hreflang tags:

Métodos para implementar hreflang tags

HTML

Adicione elementos ao cabeçalho da página para informar o Google sobre todas as variações de idioma e região de uma página. Isso será útil se você não tiver um sitemap ou não puder especificar cabeçalhos de resposta HTTP para o site.

Cada variação da página deve incluir um conjunto de elementos para cada variante da página, incluindo para ela mesma. O conjunto de links é idêntico para todas as versões da página.

<link rel=”alternate” hreflang=”lang_code” href=”url_of_page” />

Um exemplo de boa implementação das hreflang tag é o site da Holy Trap, um escape room no Algarve que procura atrair tráfego de Portugal, mas também do mercado inglês.

hreflang tag Holytrap

Cabeçalho HTTP

É possível retornar um cabeçalho HTTP com a resposta GET da página para informar o Google sobre todas as variantes de idioma e região de uma página. Isso é útil para arquivos não HTML, como PDFs.

Este é o formato do cabeçalho:

Link: <url1>; rel="alternate"; hreflang="lang_code_1", <url2>; rel="alternate"; hreflang="lang_code_2", ...

Sitemap

É possível usar um sitemap para informar o Google sobre todas as variantes de idioma e região de cada URL. Para fazer isso, adicione um elemento <loc> que especifique um único URL, com entradas filhas <xhtml:link> que listem todas as variantes de idioma/localidade da página, incluindo ela mesma. Assim, se você tiver três versões de uma página, o sitemap terá três entradas, cada uma com três entradas filhas idênticas.

Regras do sitemap:

  • Especifique o namespace xhtml da seguinte forma:
    xmlns:xhtml="http://www.w3.org/1999/xhtml"
  • Crie um elemento <url> separado para cada URL.
  • Cada elemento <url> precisa incluir um filho <loc> indicando o URL da página.
  • Cada elemento <url> precisa ter um elemento filho <xhtml:link rel="alternate" hreflang="supported_language-code"> que liste todas as versões alternativas da página, incluindo ela mesma.  A ordem desses elementos filhos <xhtml:link> não importa, mas mantê-los na mesma ordem facilita a verificação de erros.

Porque são as tags Hreflang tão importantes?

As tags do Hreflang ajudam os mecanismos de pesquisa a entender qual a versão do conteúdo é exibida para qual público-alvo.

Atenção:

hreflang é apenas uma directiva para o Google. Por vezes o Google entende que há outras páginas que melhor respondem ao utilizador e ignora a tag. Mas isso não significa que as hreflang não têm valor.

O Google já não confia tanto nos ccTLDs como o principal indicador de localização. Em vez disso, o motor de busca está tomar decisões sobre o fornecimento de conteúdo com base nas configurações do utilizador, do local e do idioma, aumentando assim a importância da tag Hreflang.

É também importante utilizar hreflang para evitar que o Google entenda conteúdos parecidos ou iguais como duplicados. Se há duas páginas semelhantes mas com target para países diferentes o Google deve ser avisado através destas tags.

Quais são os problemas mais comuns com tags Hreflang?

Ao longo dos anos, analisámos milhares de tags de Hreflang e, muitas vezes, vimos os mesmos tipos de erros.

Códigos Incorretos

Um dos problemas mais comuns é o uso de linguagem inventada ou códigos de país. Geralmente, os códigos oficiais são diferentes para o idioma e o país, portanto, as suas tags são diferentes.

Bons exemplos disso:

Sueco – não é SE-SE mas SV-SE. SV para Svenska, o nome da língua sueca
Japonês – não é JP-JP mas JA-JP para japonês
O Reino Unido – O código oficial do país para o Reino Unido é GB não no Reino Unido, portanto o código correto é EN-GB não EN-UK.
Você não precisa se lembrar desses códigos, pois pode encontrar facilmente uma lista dos dois tipos de código on-line:

http://en.wikipedia.org/wiki/List_of_ISO_639-1_codes
Os códigos de país estão aqui: http://en.wikipedia.org/wiki/ISO_3166-1_alpha-2

Tag Hreflang de auto-referência ausente

Ao listar todas as tags do Hreflang, seja na página ou no arquivo do sitemap, inclua uma tag no idioma actual. Portanto, se você estiver a fornecer tags Hreflang de uma página ou sitemap alemão, certifique-se de que há um Hreflang alemão e as dos outros mercados.

Conflitos com tags canônicas

Certifique-se de que a tag de auto-referência usa o mesmo URL da tag canónica (canonical tag) na página ao adicionar Hreflang tag. Se as duas tags entrarem em conflicto, isso apenas confundirá os mecanismos de busca.

URLs de tags do Hreflang que não estão correctas

Pode ser um URL que redirecciona ou uma página que não está mais activa. Fazer um crawl com o ScreamingFrog é suficiente para encontrar esses problemas.

A análise de erros das hreflang tags fazem parte de qualquer análise de SEO técnico.

Veja aqui como fazer uma Auditoria SEO, passo por passo.

Robots.txt : O que são e como criar

Exemplo robots txt

O arquivo robots.txt fica na raiz de qualquer site e pode ser encontrado em www.example.com/robots.txt. O robots.txt é um arquivo de texto simples que segue o Protocolo de exclusão de robôs. Um arquivo robots.txt é constituído por uma ou mais regras. Cada regra bloqueia (ou permite) o acesso de um determinado rastreador a um caminho de arquivo (página ou pasta) especificado no site.

O robots.txt é uma parte frequentemente esquecida em SEO e nas auditorias técnicas. Mesmo sendo uma parte importante de qualquer conjunto de ferramentas de SEO.

Exemplo robots txt

Este ficheiro pode ser usado para diversos fins, desde que os mecanismos de pesquisa saibam onde ir para localizar o sitemap dos seus sites até que páginas rastrear e indexar e não rastrear. Além de ser uma óptima ferramenta para gerir o crawl budget de sites.

Por exemplo, se tiver páginas duplicadas ou páginas desactualizadas e queira que o Google não aceda a uma delas.

Crawl Budget

O crawl budget ou orçamento do rastreamento é o método que o Google usa para rastrear e indexar as páginas dos sites com eficiência. Por maior que seja o Google, o motor de busca ainda têm um número limitado de recursos disponíveis para rastrear e indexar o conteúdo de seus sites.

Especialmente se tiver um site com muito conteúdo fornecido em javascript.

Se o seu site for grande como um site de comércio eletrónico, por exemplo, e você tiver milhares de páginas com muitos URLs gerados automaticamente, o Google poderá não rastrear todas essas páginas e você perderá muita oportunidade de tráfego e de visibilidade.

O Google já confirmou que ter muitos URLs de baixo valor pode afectar negativamente o rastreamento e a indexação de um site. É aí que ter um arquivo robots.txt pode ajudar com os factores que afectam o orçamento de rastreamento de sites.

Analisar o robots.txt é fundamental numa auditoria de SEO.

Você pode usar o arquivo para ajudar a gerir o crawl budget, certificando-se de que os mecanismos de pesquisa estejam gastando o seu tempo no site da maneira mais eficiente possível (especialmente se você tiver um site grande) e rastreando apenas as páginas importantes sem perder tempo páginas como login, inscrição ou páginas de agradecimento.

Porque precisa do robots.txt?

Antes que um robot como o Googlebot, Bingbot, etc. rastreie uma página da Web, primeiro ele verifica se existe, de facto, um arquivo robots.txt e, se houver, geralmente respeitará as instruções encontradas nesse arquivo.

Um arquivo robots.txt pode ser uma ferramenta poderosa para SEO, pois é uma óptima maneira de controlar como os rastreadores/bots de motores de busca acedem determinadas áreas do site. Lembre-se de que precisa entender como o arquivo robots.txt funciona ou acidentalmente poderá bloquear o Googlebot ou qualquer outro bot e eles não serão capazes de rastrear todo o seu site. Isos fará com que possa não encontrar o seu site nos resultados de pesquisa.

Quando feito correctamente, é possível controlar coisas como:

  • Bloqueio de acesso a secções inteiras do seu site (ambiente de desenvolvimento e armazenamento, etc.)
  • Impedir que as páginas internas de resultados de pesquisa dos seus sites sejam rastreadas, indexadas ou exibidas nos resultados de pesquisa.
  • Especificar a localização do seu sitemap ou sitemaps
  • Optimizar o orçamento de rastreamento, bloquear o acesso a páginas de baixo valor (login, obrigado, carrinhos de compras, etc.)
  • Impedir que determinados arquivos (imagens, PDFs, etc.) sejam indexados

Exemplos de Robots.txt

Seguem-se alguns exemplos de como pode usar o arquivo robots.txt no seu site.

  1. Permitir que todos os rastreadores/robots da web acessem todo o conteúdo do site:
User-agent: *
Disallow:

Bloquear todos os rastreadores / bots da Web de todo o conteúdo do site:

User-agent: *
Disallow: /

É muito fácil cometer um erro ao criar os robots.txt do seu site, pois a diferença de bloquear todo o seu site e de o seu site ser visto é uma simples barra invertida.

Bloqueio de rastreadores / bots da Web específicos de uma pasta específica:

User-agent: Googlebot
Disallow: /

Bloqueio de rastreadores / bots da web de uma página específica do seu site:

User-agent: 
Disallow: /cart.html

Exclua todos os robôs de parte do servidor:

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /junk/

Para confirmar que os robots.txt estão bem construídos, que as páginas que deseja bloquear estão realmente bloqueadas, pode utilizar a Google Search Console e testar página por página.

O Google fornece ainda um guia de especificações do robots.txt que pode ajudar a melhor entender como o Google lida com o arquivo.

O tamanho máximo do arquivo robots.txt – para o Google – é de 500 KB, por isso é importante estar atento do tamanho do arquivo robots.txt.

Como criar um arquivo robots.txt

Criar um arquivo robots.txt para o seu site é um processo bastante simples, mas também é fácil cometer um erro. Não deixe que isso o desencoraje de criar ou modificar um arquivo de robôs.

Este artigo do Google orienta você pelo processo de criação de arquivos robots.txt e deve ajudá-lo a obter uma criação confortável

Melhores práticas para construir robots.txt:

  1. Certifique-se de que todas as páginas importantes sejam rastreáveis e que o conteúdo que não forneça qualquer valor real seja bloqueado.
  2. Não bloqueie recursos JavaScript e arquivos CSS
  3. Faça sempre uma rápida verificação do seu arquivo para se certificar de que nada mudou por acidente
  4. Coloque o arquivo robots.txt no directório raiz do seu site para que ele seja encontrado
  5. O arquivo Robots.txt faz distinção entre maiúsculas e minúsculas, o arquivo deve ser chamado de “robots.txt” (sem outras variações)
  6. Não use o arquivo robots.txt para ocultar informações privadas do utilizador, pois elas estarão visíveis
  7. Adicione o local do sitemaps ao seu arquivo robots.txt.
  8. Verifique se você não está a bloquear nenhum conteúdo ou secções do seu website que você deseja que o Google encontre

Erros comuns nos robots.txt

“indexada, mas bloqueada pelo robots.txt”! O sitemap contém urls bloqueados pelo arquivo robots.txt. Este é dos erros mais comuns que encontramos nos alertas do Google Serach Console.

Este erro acontece quando nos sitemaps está uma página que estamos a bloquear nos robots.txt. Basicamente, estamos a pedir no sitemap que o Google leia uma página ao mesmo tempo que estamos a dizer ao Google -a través do arquivo robots.txt – que não pode aceder àquela página.

Este erro acontece muitas vezes em sites que utilizam wordpress ou blogs que utilizar plugins que disparam sitemaps para páginas de tags e categorias.

Para corrigir basta decidir se retira as páginas do sitemap ou se, de facto, elas não deveriam estar a ser bloqueadas pelo robots.txt.

Usar o Screaming Frog – uma das principais ferramentas de SEO – ajudará a encontrar páginas erradamente bloqueadas.

 

Pesquisas Por Voz: Porque é que não te deves procupar com isso para já?

Voice Search Pesquisa Por Voz

No final do ano passado fui bombardeado com pedidos para investigar formas de aumentar os resultados de pesquisas por voz. As famosas listas das tendências de 2019 traziam as procuras por voz bem no topo das prioridades.

Este texto é exactamente sobre porque é que não te deves preocupar com procuras por voz neste momento.

Procuras por voz ainda não chegou à nossa língua

2018 voice search statistics

A imagem em cima foi vista num artigo sobre estatísticas de procuras por voz. Segundo o artigo, as pesquisas por voz estão a crescer e, por isso, deveriamos adaptar a nossa estratégia.

A verdade é que estes dados só mostram real crescimento nos países de língua inglesa. Em especial, Estados Unidos e Reino Unido. Nos restantes países não há qualquer prova de que as procuras por voz estejam a crescer a um ritmo acelerado.

Procuras rotineiras

1178 Inline 01

De acordo com o próprio Google – que, aliás, tem evitado providenciar muitas informações sobre o tema – 72% das pessoas que utilizam recursos de voz fazem-no como parte da sua rotina diária.

1178 Inline 04

Ou seja, a maioria das pesquisas são informacionais e poucas irão realmente levar a visita ao seu site.

Obviamente há um interesse de branding e de posicionamento em aparecer, mas já irei explicar mais à frente porque é que não se tem de preocupar com procuras por voz para ganhar esse espaço.

Dispositivos voz ainda não estão preparados para comércio

apple homepod stats

A tecnologia é recente, as empresas ainda não saltaram à maluca para estratégias de voz e isso tem atrasado o crescimento da tecnologia e o modo como os serviços podem oferecer mehores resultados.

Há, sobretudo nos Estados Unidos da América, o crescimento de compras feitas por voz. Especialmente, em dispositivos da Amazon. Mas esta ainda não é a prática mais comum. Muito menos fora do ambiente da Amazon.

Desafios com as pesquisas de voz

Saber, no dia de hoje, para que resultados um website está a aparecer para resultados de voz é bastante complicado. Não é 100% impossível, mas o que é possível tão pouco é 100% da realidade.

Esta falta de dados de Voice Search – que o Google até já prometeu superar – é um sinal claro que o Google sabe que os números ainda não são tão fantásticos assim.

Há algumas ferramentas que já permitem integrar o Google Analytics e saber quais os resultados que estão a ser lidos aos utilizadores pelos dispositivos de voz. Mas são caros e o investimento fora dos Estados Unidos praticamente desnecessário.

Voice Search: O que fazer agora?

Featured Snippets

Featured Snippets são uma boa forma de começar a trabalhar.

  1. Já podem ver resultados reais através de procuras em desktop e mobile
  2. Sabemos que muitos dos resultados de voz já usam featured snippets.

Vimos um enorme aumento na visibilidade como resultado desta estratégia. Remover conteúdos desactualizados e actualizar páginas antigas é um óptimo ponto de partida.

A optimização para featured snippets não apenas permite que o seu site apareça duas vezes na primeira página para um resultado, mas também permite que ele se torne a resposta da pesquisa por voz, em muitos casos.

Os snippets em destaque são accionados para uma grande proporção de consultas devido à sua natureza. É uma estrutura totalmente escalável, que podemos facilmente adaptar e adicionar, em vez de tentar empilhar mais e mais perguntas e respostas em uma única página.

Anglian Featured Snippets

Há vários estudos sobre “voice search”. A maioria demasiado positivos e longe da realidade, na minha opinião.

Search Console

Na Search Console pode tentar encontrar “queries” que pareçam ter sido realizadas através de voz:

  1. Queries que comecem com “Como”, “Porquê”, “Quanto”…
  2. Procuras que tenham acentos e sem erros gramaticais
  3. Frases longas e elaboradas

Este pode ser um bom indicativo de que uma determinada procura foi realizada através de voz.

Sabendo disso, pode tentar optimizar/criar conteúdo que melhor responda às intenções dos utilizadores.

Assistentes Virtuais

Não está directamente relacionado com SEO, mas sim com Virtual Assistants. Há já muitas empresas a movimentarem-se neste espaço e o Google tem ajudado a criar estratégias para diferentes áreas de negócio.

Voice Search Pesquisa Por Voz

Os assistentes são uma excelente maneira de aumentar a visibilidade da sua marca – o que aumenta as interacções nas redes sociais e poderá melhorar os rankings.

Remover conteúdo desactualizado: o que fazer

Remover Conteudo Desactualizado

O que fazer para remover conteúdo desctualizado? Todos nós já chegámos aquele ponto em que olhamos para todas as páginas que temos e reparamos que há conteúdo desactualizado no site e é preciso fazer algo.

Irei explicar o que fazer com conteúdo desactualizado, seja em sites de e-commerce ou sites informativos.

Vamos começar com sites e-commerce.

Remover Conteudo Desactualizado

Conteúdo desactualizado em e-commerce

O que fazer quando tempos um produto fora de stock? Ou se é um produto antigo que nunca mais será vendido?

Para sites de venda online, ter coonteúdo desactualizado não é de todo desejável. Clientes insatisfeitos levam a quebra de vendas.

Por isso, é preciso que em sites e-commerce seja claro quando um produto está esgotado ou que se deixou de fabricar. Mas a página deverá continuar activa e indexável.

Especialmente, se estivermos a falar de produtos que continuam a ter muito volume de procura.

Ao informar o utilizador que o produto não pode ser comprado, mas, mantendo as características do mesmo e oferecendo opções semelhantes para compra, está a contrinuir para a boa usabilidade do site.

Ao mesmo tempo mantem informação relevante sobre o produto.

Se o produto não irá voltar a ser comercializado e não há volume de procura, então nesse caso um redireccionamento para a homepage ou para o folder mais próximo pode ser a solução.

Conteúdo desactualizado em sites de informação

Em sites de informação ou blogs, as páginas desactualizadas são um problema constante.

Há três abordagens possíveis:

  • Este tema é relevante e há volume de procura para ele?
  • O meu artigo pode ser actualizado e reoptimizado?
  • Há alguma razão para manter esta página?

Se não há qualquer motivo para manter uma página, se ela não leva tráfego nem negócio, então eliminar a página e colocar um redireccionamento pode ser a solução.

Se há motivo para manter a página, mas essa razão não tem que ver com tráfego orgânico, então não-indexar a página poder ser a solução mais viável.

Porém, se o tema é relevante e há forma de actualizar o conteúdo, então deverá fazê-lo o mais rápido possível.

Actualizar conteúdos antigos pode fazer a diferença

A actualização de conteúdo é um sinal extremamente forte para o Google, no que respeita a rankings.

Ter conteúdo actualizado é sinal que alguém está a olhar para o site e a cuidar dele. O Google adora isso.

Não vale a pena criar 3 artigos novos por semana para o seu blog se esses artigos não estão a levar nenhum tráfego ao site. Quantidade não é qualidade.

Porque é que actualizar conteúdo antigo é relevante?

  1. Reforça a autoridade: Manter os leitores actualizados nos temas relacionados ao seu mercado/nicho, reforça a sua autoridade no assunto;
  2. Melhora as conversões: reoptimizar o conteúdo antigo à luz do que são as novas procuras e necessidades aumenta as conversões e atai mais links.
  3. Aumenta o tráfego orgânico: No fundo, o que se pretende é conseguir melhorar os rankings dessas páginas  e, com isso, obter mais visitas;
  4. Melhorar a qualidade do site: Ao ter menos páginas desactualizadas e sem visitas está a aumentar a qualidade do seu site aos olhos do Google;

Pode sempre analisar a sua concorrência e ver o que eles têm publicado sobre os temas que você não domina tão bem.

Remover Conteudo Desactualizado Screaming Frog Google Analytics

Como encontrar conteúdo desactualizado

Para encontrar e remover conteúdo desactualizado no seu site o melhor é comerçar com o Screaming Frog – uma ferramenta de SEO indispensável a qualquer análise técnica de SEO. O spider permite ligar o Google Analytics e a Google Search Console e obter dados das suas contas.

Se fizer uma configuração de 12 meses poderá ver quais as páginas (com mais de 3 meses) que no último ano não obtiveram qualquer visita.

Porquê páginas com mais de três meses? Não vai querer apagar uma página que ainda não provou o seu valor, pois não?

Com esta técnica de ligar o Screaming Frog às ferramentas analíticas poderá ver métricas como: cliques, impressões ou, por exemplo, média de ranqueamento.

Se uma página não obteve muitas visitas no último ano, provavelmente está desactualizada.

Conteúdos desactualizados podem prejudicar

A validação de conteúdo deveria ser parte integrante de qualquer auditoria de SEO. Coloque-se no lugar do leitor. Imagine-se a aceder a um post sobre um assunto que está à procura e percebe que esse conteúdo está com dados antigos ou com informações desactualizadas.

A experiência de utilizador sairá prejudicada e o bounce rate irá, seguramente, aumentar. Prejudicando os rankings. E daí resultarem as quedas de tráfego orgânico.

Além do mais, o Google irá perder tempo a fazer crawl a páginas irrelevantes, gastando crawl budget de forma desnecessária.

Futura: Conferência de Marketing em Lisboa com a presença de Neil Patel

Oportunidade rara em Portugal, Neil Patel – um dos mais conhecidos “gurus” do SEO da actualidade – irá marcar presença na Futura, conferência de Marketing Digital, 29 e 30 de Novembro, no Four Seasons Hotel Ritz Lisbon.

Ele é o co-fundador da Neil Patel Digital.

O Wall Street Journal chama-o de um grande influenciador na web, a Forbes diz que ele é um dos 10 principais profissionais de marketing, e a Entrepreneur Magazine diz que ele criou uma das 100 empresas mais brilhantes.

Neil é um autor best-seller do New York Times e foi reconhecido como um top100 empresário com  30anos, pelo presidente Obama, e um dos top 100 empresário top 100 com 35 anos, pelas Nações Unidas.

 

AGENDA

29 e 30 de Novembro de 2018

agenda futura

FUTURA – Boosting Digital Marketing

Don Tapscott, Neil PatelAri Wallach e alguns dos mais relevantes decisores portugueses partilham, em Lisboa, os factores-chave que determinam hoje o futuro e o sucesso das suas empresas.

Os bilhetes podem ser adquiridos em http://www.futuradigitalmarketing.com

 

Guest Posts: O Que É – (Escreva para nós!)

Guest Posts Portugal

A SEOPortugal está aberta a receber publicações e guest posts de outros bloggers, marketers e SEOs.

Se gosta de escrever sobre Marketing e/ou SEO, se tem estudos e análises que quer partilhar com a comunidade de língua portuguesa: a SEOPortugal está receptiva a receber o seu contacto.

Atenção: Somos muito exigentes quanto aos artigos de convidado (guest posts) que publicamos. Entre em contacto connosco através de info@seoportugal.net para saber exactamente o que pode ou não ser publicado.

Todos os autores que escrevem sobre marketing e SEO na nossa plataforma têm uma vasta experiência e domínio nos seus campos de acção. Este é o nível de qualidade que estamos à procura.

Se está à procura de sites que aceitem guest posts em Portugal , sobretudo na área do SEO e do Marketing, esta é sem dúvida uma opção para si.

Nós apoiamos o blogging em português e partilhamos nas nossas redes sociais o esforço de toda a comunidade em partilhar mais informação sobre SEO.

Guest Posts Portugal

Guest post o que é

Quando me perguntam o que é guest post sinto-me sempre limitado na minha resposta. Guest Post, em tradução literal para o português, significa “post convidado”.

Ou seja, Guest Posting, Guest Blog ou Guest Blogging é a prática de escrever e publicar artigos em sites ou blogs de outras pessoas e/ou empresas. O dono da página cede um espaço para que convidados possam promover um conteúdo de qualidade para sua audiência.

O autor convidado, por sua vez, pode incluir no texto links que redirecionem para o seu próprio blog ou site. Ou seja, o guest blog é uma forma de linkbuilding.

O benefício destas técnicas e acções é alcançar novas audiências ou conseguir links para o seu site, melhorando a performance da sua estratégia de SEO.

Do lado da SEOPortugal ganhamos por ter conteúdo de qualidade que vai de encontro ao que a comunidade procura.

O Guest Blogging em Portugal ainda não é muito utilizado. Mas há cada vez mais sites internacionais à procura de sites portugueses para publicarem os seus artigos.

Como conseguir publicação

Quando enviar o email para info@seoportugal.net seja directo sobre o que pretende publicar.

O nosso foco está na qualidade do conteúdo. Essa é a barreira que defenimos para a publicação ou recusa de artigos que nos são enviados.

Como escrever um Guest Post?

Para escrever um Guest Post para a SEOPortugal necessita de se adaptar à nossa linha editorial.

Ou seja, adoptar um pouco do nosso estilo e perceber quem é o nosso público e o que procuram quando encontram os nossos artigos.

Escreva bom conteúdo.

Não faça publicidade: mesmo que o seu objectivo seja divulgar algum produto, serviço ou até mesmo a sua marca.

Jamais deixe que o seu texto fique focado em publicidade.

Tente contar uma história, apresentar resultados ou mostrar uma nova maneira de atingir resultados.

Use os links com cautela: utilizar links demais pode deixar o seu guest post carregado. Lembre-se que esse conteúdo precisa ser interessante, atractivo, e obviamente, objectivo.