Auditoria de Backlinks: Como fazer (Passo-a-Passo)

O que é PBN?

Já lá vão muitos anos desde que o Google lançou o “Pinguim”, mas nem por isso é tarde para aprender a fazer uma auditoria de backlinks.

A auditoria de backlinks pode ter diferentes fins: Entender que sites estão mais receptivos a “linkar” o seu; analisar os links que estão a gerar mais tráfego; saber que sites de baixo valor têm links a apontar para as suas páginas, etc.

É difícil hoje em dia saber se estamos a ser penalizados pelo Google devido aos nosso perfil de backlink. Excepto quando, efectivamente, o Google nos aplica uma penalização manual por “spammy-links”.

Os links são muito importantes na hora de ranquear um site. Quando olhamos os backlinks do nosso site podemos entender rapidamente o quão poderoso é um bom perfil de backlink. Encontramos lugares onde poderemos obter links ainda mais importantes que aumentarão o desempenho e os rankings do site.

É ainda possível “roubar” os backlinks dos seus concorrentes.

Uma auditoria de link analisa os seus links actuais (também chamado de backlink profile) e avalia como eles são bons para o seu site.

Uma boa auditoria de links também revela quais os links mais arriscados – que podem levar a uma penalização – e mostra como você pode melhorar a sua estratégia.

Alguns elementos importantes que devem ser considerados ao fazer a auditoria de backlinks

1. Domínios de autoridade

É preferível ter menos backlinks, mas pelo menos links de sites de extrema autoridade no seu nicho/área de influência. Especialmente se levarem tráfego ao seu site.

Aqui, explicamos como medir a autoridade de um site.

2. Países de origem

Se tiver um site cujo público é exclusivamente português ou brasileiro e 80% dos links que apontam para o seu site estão em domínios .ru o Google vai desconfiar da relevância desses links.

Isto é ainda mais importante se o seu negócio for local, como um restaurante ou um cabeleireiro, por exemplo. Procure sempre sites locais, da mesma cidade, para linkarem o seu.

3. Links não-naturais

Links não-naturais podem ser considerados uma violação de Recomendações de Qualidade do Google. Na verdade, cada link, criado com o único objetivo de aumentar o ranquamento do site é considerado pelo Google como um link não-natural.

Tenha cuidado ao criar links

Ao vincular suas páginas, você pode acabar estendendo a reputação do seu site para outro site. Alguns usuários podem tentar se beneficiar disso inserindo links para os sites deles nas seções de comentários ou nos fóruns de mensagens do seu site. Pode acontecer também de você mencionar um site de modo negativo e não querer estender sua reputação a ele. Por exemplo, imagine que você está publicando uma postagem sobre spam de comentários e quer mencionar um site que recentemente publicou spam nos comentários do seu blog. Você quer alertar as pessoas sobre esse site, então inclui no seu conteúdo um link que direciona a ele. No entanto, você não quer estender sua reputação ao site por conta desse link. Esse seria um bom momento para usar o atributo “nofollow”.

4. Portfólios de backlinks dos concorrentes

Verificar os backlinks do seu concorrente pode te ajudar a descobrir novas oportunidades de backlinks e oferecer uma chance de entender melhor a estratégia dele.

Se os seus concorrentes conseguiram um link num determinado site, há grande probablidade que você também consiga que esse site link o seu se entrar em contacto.

5. Texto Âncora

O anchor text, ou texto âncora, é o texto visível dentro de um link. Esse texto informa aos utilizadores e ao Google algo sobre a página vinculada. Os links na sua página podem ser internos (levando a outras páginas no site) ou externos (levando a conteúdo em outros sites).

Em ambos os casos, quanto melhor for o texto âncora, mais fácil será para os utilizadores navegarem no site e para o Google entender do que trata a página vinculada.

Práticas recomendadas pelo Google
Escolha um texto descritivo

O texto âncora usado em um link deve fornecer pelo menos uma ideia básica do que trata a página vinculada.

Evite:

redigir textos âncora genéricos, como “página”, “artigo” ou “clique aqui”;
usar um texto que não aborda o tópico ou que não tem relação com o conteúdo da página vinculada;
usar o URL da página como texto âncora na maioria dos casos (embora essa prática seja adequada em contextos como promover ou referenciar o novo endereço de um site).
Escreva textos concisos

Use um texto breve e descritivo, idealmente com poucas palavras ou com uma frase curta.

Evite:

redigir textos âncora longos, como uma frase extensa ou um parágrafo de texto.

Ferramentas para fazer auditoria a backlinks

Para fazer a auditoria de baccklinks vai precisar de usar uma ferramenta que lhe diga que links tem e onde. O google Search Console tem um relatório bem pequeno e resumido dessa informação.

As ferramentas da nossa lista poderão ajudá-lo a descobrir mais e melhor informação.

Auditoria de Backlinks

Passo 1: Compare o seu perfil com a da sua concorrência

Veja quantos links você tem versus a sua concorrência, mas é também positivo que compare os seguintes pontos:

  • Quantos links tem para a homepage
  • Quantos links são “dofollow”
  • Quantos links vem de sites de autoridade no seu ramo de negócio?
  • Quantos links são geograficamente relevantes?

Ao perceber o que a sua concorrência está a fazer pode conseguir boas ideias para aplicar estratégias semelhantes.

Passo 2: Aproveitar todos os restos

Sobretudo em sites grandes ou com muitos anos, é normal que, por vezes, alguns backlinks apontem para páginas que já não existem. Nesse caso, faça uma lista de páginas antigas que merecem ser redireccionadas de modo a não perder tráfego qualificado.

Passo 3: Encontrar links indesejados

Quando está a olhar para a lista de todos os links que apontam para o seu site procure sinais de links indesejados ou spam.

Fique atento, especialmente, para backlinks de sites de spam, links pagos e links de sites penalizados.

Assim que tiver uma lista de sites que seguramente não deveriam ter um link para o seu, seja porque o link foi pago e essa informação está no site, seja porque é um site spammy, deve entrar em contacto com o site e pedir a remoção do link.

Se sua solicitação for ignorada, você precisará rejeitar os backlinks inválidos através da Google Search Console. 

Mas, atenção!

Em um Hangout para webmasters, John Mueller, do Google, afirmou em termos claros que a “grande maioria dos sites” não precisa usar a ferramenta de rejeição (disavow file tool). Segundo JM, o Google realmente oculta a ferramenta e dificulta a localização no Google Search Console do Google de propósito.

A razão é porque a ferramenta é útil principalmente se você souber que os links são maus porque você ou seu SEO são responsáveis ​​por esses links.

Como Rejeitar Backlinks

Na maioria dos casos, o Google pode avaliar os links confiáveis sem orientações adicionais, de modo que a maior parte dos sites não precisará usar essa ferramenta.

Segundo o Google, rejeite os backlinks somente se:

você acreditar que tem uma quantidade considerável de links com spam, artificiais ou de baixa qualidade que direcionam para seu site; e
os links causaram ou provavelmente causarão uma ação manual no seu site.

Formato do arquivo de links:

Especifique um URL ou domínio a ser rejeitado por linha. Não é possível rejeitar um subcaminho inteiro, como example.com/en/.

Para rejeitar um domínio ou subdomínio, insira um prefixo “domain:”, por exemplo: domain:example.com.

O arquivo precisa ser um arquivo de texto com codificação UTF-8 ou ASCII de sete bits.

O nome do arquivo precisa terminar em .txt.

# Duas páginas a serem rejeitadas
http://spam.example.com/stuff/comments.html
http://spam.example.com/stuff/paid-links.html

# Um domínio a ser rejeitado
domain:shadyseo.com

Guest Posts e Concurso de Blogs

Os guest posts não são negativos para SEO desde que o assunto seja importante e relevante para os leitores dos sites em questão.

Porém, não abuse desta estratégia nem fique refém dela.

O mesmo para os famosos concursos de blogs somente feitos para angariar mais links. O Google não gosta disso e, na verdade, os leitores também não.

Technical SEO: Os erros mais comuns e tão fáceis de resolver

Technical SEO erros mais comuns

O Technical SEO não é algo tão complicado depois que entendemos os básicos. Sim, ajuda se tivermos alguns conhecimentos – ainda que básicos – de HTML, php, java, etc…

Os nossos sites estão constantemente perante problemas técnicos que podem prejudicar a sua performance orgânica.

As auditorias técnicas as sites devem ser feitas de forma constante e pró-activa.

O Technical SEO base não precisa ir além de uns quantos crawls com o Screaming Frog.

Aqui pode ler como Como Fazer uma Auditoria de SEO !

Identificar erros de rastreamento com um relatório de rastreamento

Fazer um crawl, seja com o Screaming Frog, SemRush, AHREFS ou qualquer outro crawler, é o mínimo que se deve fazer a cada mês ou par de meses (sobretudo em sites com muitas páginas).

Ao fazer estes relatórios de forma periódica é possível ver e identificar os problemas técnicos mais urgentes de SEO, como conteúdo duplicado, baixa velocidade de carregamento página ou falta de tags H1 / H2.

É possível automatizar auditorias de site usando uma variedade de ferramentas de SEO e trabalhar com a lista de erros ou avisos criados pelo rastreamento.

Essa é uma tarefa na qual se deve trabalhar mensalmente para manter o site sem erros – bem, pelo menos com o menor número possível – e o mais optimizado possível.

Erros de Technical SEO Mais Comuns

  • Conteúdo Duplicado

Vamos começar com a pedrada no charco: conteúdo duplicado! Ainda que conteúdo duplicado não pareça directamente um problema técnico, de facto, muitas vezes os problemas de duplicação têm origem técnica.

O conteúdo duplicado NÃO penaliza o site.

Ou seja, o facto de ter muitas páginas duplicadas não prejudica o domínio, mas prejudica sim o alcance total das páginas que tem, uma vez que o Google irá escolher uma página para indexar e eliminar todas as demais.

As causas mais comuns passam por falta de canonical tags, criação de muitas páginas de categorias ou tags.

Duplicação de Titles, Descriptions e H1 devem ser evitadas a todo o custo

  • Páginas sem H1

É mau ter páginas com o mesmo H1, mas é igualmente mau ter páginas sem H1. o H1 é o Título na página e cada página deverá estar devidamente identificada sobre o seu conteúdo

rastreio - erros técnicos de SEO
Estudo do SemRush – Clicar na imagem para ler artigo
  • Configuração Incorrecta do www

Na altura de configurar o seu domínio pode escolher apresentar as páginas com o subdomínio www. ou sem www.

Não há penalização de usar uma ou outra forma, mas tenha a certeza que usa a mesma forma em todo o site e redirecciona a forma não usa

da para a que está activa.

O www. é considerado um subdomínio e por isso os URLs com e sem www. são vistos como páginas diferentes.

Se apresentar o conteúdo nas duas versões o Google irá considerar isso duplicação de conteúdo.

Na Googlle Search Console pode ajudar o Google a entender a qual das versões deve ser dada prioridade.

  • Optimização das Imagens

Optimizar Imagens para SEO não é simplesmente ter ALT tags. O nome do ficheiro (e respectivo URL da imagem) devem estar optimizados.

Mas isso é a parte de conteúdo. Tecnicamente falando, lembre-se que quase todos nós acedemos à net – cada vez mais – através de smartphones.

Imagens muito pesadas e que demoram a carregar vão estragar a usabilidade e prejudicar na hora de ranquear.

  • Cadeia de Redireccionamentos

Criar redireccionamentos ajuda a não ter links quebrados no site. Porém, ao fim de alguns meses (anos?) encontramos situações onde o antigo URL A redirecciona para o B que agora redirecciona para C que por sua vez resolve em D.

A isto chamamos cadeia de redireccionamentos e, como já deve estar a perceber, devem ser corrigidos.

Se A tem mesmo que ser redireccionado então deve ser redireccionado para D. E quanto a B? Bem, é mesmo neccessário manter B? Há backlinks para B? Há inlinks para B? Há alguma razão para manter B?

Se sim, então B deve ser redireccionado para D, caso contrário podemos eliminar o redireccionamento.

Já agora falemos de loops!

Ou seja, A redirecciona para B e B para C e C para A… o site nunca irá abrir. O Screaming Frog tem um relatório específico para estas situações.

É fácil de encontrar estes problemas.

  • 404 – páginas não encontradas

Um dos piores erros que pode existir: uma página que não abre. Quando nosdeparamos com um 404 temos de perceber alguns pontos:

  1. Queremos mesmo que
  2.  esta página resolva 404? – Se sim, então devemos remover todos oos inlinks do nosso site;
  3. Este é um conteúdo que existiu mas foi removido de vez para nunca mais voltar? Se sim, talvez devessemos considerar aplicar um código 410 e remover todos os inlinks.
  4. Há uma outra página que pode responder aos interesses dos usuários e que substitua esta? Se sim, talvez devessemos redireccionar (301) ou mudar directamente os inlinks
  5. É uma página que está temporariamente fora do ar? Se sim, talvez possamos redireccionar (302) para uma página que responsa aos interesses do utilizador ou para a homepage.
  • Links internos com “nofollow”

Qual o interesse de ter links internos que não queremos que o Google não siga?

Porquê não passar “juice” de uma página para outra? Bem, se realmente há uma razão, então bom trabalho.

De outra forma, os inlinks devem ser todos “follow”.

Problemas SEO tecnico Sitemap
Clicar na imagem para ler “40 Erros Técnicos de SEO – Pesquisa da SEMrush”
  • Sitemap

O sitemap é fundamental para o Google descobrir todas as suas páginas e entender a estrutura do seu site.

Além do mais, se dividir o seu sitemap por grupo de páginas poderá entender  que páginas o Google indexa melhor e quais o Google gosta menos.

Não tente contabilizar os ganhos de ter ou não um sitemap. Está a perder dinheiro enquanto tenta justificar o investimento. Se usa wordpress, veja aqui os melhores plugins para wordpress.

Ter páginas bloqueadas por robots.txt ou com tag no-index no sitemap não é boa prática.

Tenha a certeza que o Google encontra o seu sitemap e que ele está bem configurado.

  • HREFLANG

Para sites com versões em diferentes idiomas é nececssário ter as hreflang tags bem definidas. Tenha a certeza que as páginas apontam para as equivalentes em cada idioma. Seja em html ou no sitemap.

Erros no ficheiro robots.txt podem causar problemas de indexação. Tenha a certeza que o seu ficheiro está correcto, no formato correcto, que o Google o consegue encontrar e que está submetido no Google Search Console.

Se tiver dúvidas, pode ler aqui como forçar o Google a fazer o crawl do site.

technical SEO - Problemas velocidade página
Clique na Imagem para ver o relatório do Semrush
  • Velocidade de carregamento da página

Uma página que demora mais de 3 ou 4 segundos a carregar/abrir é uma página que potencialmente irá trazer problemas aos seus utilizadores. Sobre a velocidade dos sites pode ler estes artigos:

  1. Como deixar um site em WordPress mais rápido
  2. SEO Mobile, Mobile Speed, AMP e PWA
  • Páginas AMP sem canonical tag

Este é um erro menos comum – até porque a implementação de AMP não é tão usual – mas serve para fechar esta lista não exaustiva de erros técnicos.

Como Indexar Site no Google

forçar google crawl site

Como indexar site no google? O site está pronto e o próximo passo é indexá-lo no Google? É neste ponto que muitos webmasters têm dúvidas: como forçar o Google a fazer o crawl do site?

Veja:

Os métodos aqui apresentados servem para explicar o que fazer para indexar um novo site, uma nova página ou um conjunto alargado de páginas.

Se viu uma quebra no seu tráfego orgânico e não está certo se é um problema de indexação ou não, veja aqui como fazer uma análise completa.

Se, a questão é tentar desindexar páginas, então veja este artigo sobre resultados negativos.

Os rastreadores do Google são muito bons a fazer o seu trabalho. Raramente é necessário fazer um trabalho manual de pedido de indexação de páginas, pois o Google está constantemente a ler a web e é raro não apanhar uma nova página ou domínio.

Ainda assim, é uma boa prática dar ao Google uma pequena ajuda com seu trabalho de indexação, sobretudo se o site é novo e não tem nenhum histórico de visitas.

Aliás, “como indexar o meu site no Google” foi a minha primeira preocupação quando quis abrir o seoportugal.net ao mundo.

Cada uma das seguintes ferramentas oficiais do Google pode ajudar na indexação de páginas.

É importante ter sempre em mente que nenhuma destas ferramentas pode, realmente, forçar a indexação no Google nem obrigar o Google a indexar o seu site.

Uma indexação mais rápida e abrangente do seu site ocorrerá se oconteúdo for novo, original, útil, fácil de navegar e estiver vinculado a outros lugares da web, através de links.

Atenção:

Estas ferramentas não garantem que o Google consider um site indexável. E também não devem ser usados como alternativa à publicação de conteúdo que agrega valor ao ecossistema da Internet.

Ou seja, basicamente, podemos informar o Google de uma nova página, mas a decisão final de indexação está sempre nas mãos do motor de busca.

Antes de explicar como indexar um site no Google, vou explicar como saber se o site já está indexado ou não, porque no Facebook a pergunta mais recorrente foi: “como saber se meu site esta indexado no Google”

Como saber se meu site está indexado no google

Para saber se o seu site está indexado no Google tem duas formas muito simples.

  1. Abrir o Google e procurar por “site:omeusite.com” (sem as aspas). O Google irá então mostrar “todas” as páginas que estão indexadas.
  2. A segunda forma de saber se o site está indexado é abrir a Search Console e confirmar se já tem Visitas, Impressões ou se o Google já começou a fazer o crawl: abra Google Index >> Index Status.

Note:

Há páginas que não estão indexadas propositadamente. Como por exemplo algumas páginas de campanhas.

Sitemaps

Ter um sitemap é sempre o mais indicado para indexar URL, independentemente se você alterou muitas páginas num domínio ou alterou a estrutura do site.

Sempre que acrescentar uma página, o sitemap deverá ser actualizado. Felizmente este é um processo que poderá facilmente ser automatizado.

forçar google crawl site sitemaps

Através da Search Console do Google é possível adicionar um sitemap. Depois de gerar ou criar um sitemap: nas Ferramentas do Google para webmasters, seleccione o domínio em que aparece, seleccione “rastrear” / “sitemaps” / “adicionar / testar sitemap”, digite o URL (ou, como você pode ver, o domínio URL anexado com sitemap.xml) e ‘enviar’.

Esta medida é fundamental para adicionar o seu site no Google.

Buscar como o Google

Também no webmastar tool do Google, pode encontrar a ferramenta de “buscar como o Google”, ou em inglês “fetch as Google”. Este é o ponto de partida mais lógico para obter um óptimo novo site ou conteúdo indexado.

Como Indexar Site no Google fetch

Se o seu site for indexável (também pode verificar se o site está a ser exibido corretamente), poderá enviá-lo para que ele seja adicionado ao índice do Google.

Esta ferramenta também permite enviar um único URL (“Rastrear apenas este URL”) ou o URL seleccionado e as páginas às quais ele direcciona directamente (“Rastrear este URL e seus links directos”).

Embora ambas as solicitações tenham os seus próprios limites; 10 para a primeira opção e 2 para a segunda.

Adicionar URL no Google – Desactivado

Outra opção era a ferramenta “Adicionar URL” do Google. Tal como o nome indica, esta funcionalidade permiteia adicionar URL no Google de forma “automática” e directa. Era como uma versão mais simples da ferramenta Fetch. Era uma ferramenta mais lenta e simples, sem a funcionalidade e versatilidade do Fetch.  O Google removeu esta funcionalidade durante o Verão de 2018. Era provavelmente a forma mais rápida de indexar um URL.

forçar google crawl site adicionar url

O Google possibilitava também usar o Adicionar URL apenas com uma Conta do Google, em vez de adicionar e verificar uma propriedade/website às Ferramentas do Google para webmasters. Bastava adicionar o seu URL e clicar para garantir que não era um robô!

Esperamos que o Google volte a trás e reactive esta funcionalidade.

Ainda que não seja possível forçar o Google a indexar um site, é possível forçar o Google a fazer o crawl. Por isso, antes de pedir ao Google que leia o seu site, tenha a vcerteza que o seu site está de acordo com as melhores práticas, de modo a evitar ser penalizado ou avaliado negativamente.

Razões para o meu site não estar indexado

Há algumas razões para que o seu site não esteja indexado no Google. Na Google Search Console é possível ver o relatório de erros e o Google diz detalhadamente as razões porque a sua página não está indexada.

O problema é que para websites com milhares de páginas, a Search Console apenas providencia uma amostra (até 1000 páginas) dos erros totais.

E há vezes que o conteúdo do seu site está desactualizado e o Google simplesmente remove da indexação.

Problemas técnicos também podem justificar o não aparecimento do site. Confirme aqui a lista de erros mais comuns em SEO.

Uma das muitas razões para a não indexação de páginas é o conteúdo duplicado. Leia o nosso artigo e entenda as consequências do conteúdo duplicado e como evitar.

Algumas vezes surge a ideia de que se tiver conteúdo oculto na página isso poderá penalizar a página. Geralmente o conteúdo oculto não é um problema para o Google, mas se tiver dúvidas, pode sempre fazer uma auditoria passo por passo para entender como o Google está a interargir com as suas páginas.

Estas são as nossas dicas como indexar site no Google. E vocês, têm alguma dica diferente?

Nova Google Search Console – Novidades e o Futuro

A nova Google Search Console já está aí para todos os web masters – ainda que em fase beta. Explorei a nova versão da Google Search Console com curiosidade e o que trago são boas, não-tão-más e notícias assim-assim.

Muitos de nós são do tempo do “Webmaster tools”, depois o Google mudou-lhe o nome para Search Console, mas os webmasters continuaram com os problema de sempre. O principal: apenas 3 meses de dados.

Há muito que o Google vinha a prometer mais dados na Search Console e a mudança era esperada para este ano. E aí está. Desde Janeiro que a versão beta (que já viu vários layouts e o actual não deverá ser o último!) está disponível para que os webmasters possam partilhar o seu feedback com a gigante americana.

É tudo muito recente e o Google continua a testar a nova Search Console. Nos próximos meses o motor de busca irá adicionar – à agora “nova” – os serviços da “velha” consola. Ambas as versões irão coexistir até que tudo esteja terminado. Desde Janeiro que tenho acompanhado a versão beta do “Webmaster tools” e chegou a hora de fazer um primeiro balanço.

Novidades da Nova Search Console

16 meses de dados! O Google excedeu todas as expectativas, no máximo esperava-se que fossem disponibilizados 12 meses. Esta era a novidade mais esperada pelos webmasters. O Google disponibiliza agora 16 meses de dados (Clicks, Impressions, Av. CTR e Av. Position), permitindo análises automáticas de YoY ou WoW e até MoM.

Até agora, quem queria ter acesso a esses dados teria de construir as suas próprias base de dados e usar o API da Search Console ou então usar uma das ferramentas disponíveis do mercado (o Linkdex disponibiliza essa opção) para conseguir guardar mais do que os 3 meses mostrados pelo Google.

É, aliás, na parte analítica que a nova Search Console mais vem ajudar. Pelo menos até agora. A renovada área de análise, agora conhecida como Performance de Pesquisa, trás novas opções que até agora só estavam disponíveis a quem baixasse os dados através do API.

Tal como acontece com o antigo relatório do Search Analytics, é possível ver cliques totais, impressões totais, CTR médio e dados de posição médios no mesmo gráfico. Mas onde os webmasters anteriormente eram forçados a escolher entre a filtragem por tipo de pesquisa, consulta, página, país e dispositivo – com apenas uma opção disponível – agora é possível filtrar por múltiplas variáveis ao mesmo tempo.

Mas há mais novidades. A secção do Índice na nova Consola de Pesquisa do Google é uma combinação dos relatórios anteriores de Indíces de Erros e Índices de Rasteio. O novo relatório permite que os proprietários do site vejam como o Google está a indexar o site, bem como identificar e corrigir erros.

É possível visualizar dados por páginas com erros, páginas válidas com avisos, páginas válidas que foram indexadas e páginas excluídas e também sobreposição de dados de impressões no topo. Porém, até ao momento, ainda não é possível ver onde o Google encontrou determinado link – o que é possível na “velha” consola e de extremo valor na hora de saber onde atacar o problema.

Como um belo “plus”, a nova Search Console permite solicitar a actualização do índice do Google após termos resolvido um problema. Ou seja, em vez de termos de esperar que o Google volte a visitar uma página e a volte a avaliar, podemos pedir para que o faça assim que possível ‘ possibilitando recuperar de perdas mais rápido do que nunca.

Relatório de Links

O relatório de links aparece com nova cara. e com mais precisão, por isso é provavel que apareçam menos links nesta nova versão. 

Fica aqui uma imagem do relatório que mostra que o novo relatório de links, para links externos, está dividido em (a) top linked pages e (b) top linking sites.

top link sites relatorio de links search console

Imagens roubadas ao seroundtable.com.

Há – e haverá – mais umas quantas pequenas novidades. Mas considero que estas são as principais.

À versão beta da nova consola ainda serão adicionados muitos dos serviços. Muitos dos dados da antiga Consola ainda terão de ser migrados.

Para já o balanço é muito positivo, mas a “velha” Search Console ainda está para durar.