Horário de Atendimento SEO – 24 de dezembro de 2021
Publicados: 2021-12-29Este é um resumo das perguntas e respostas mais interessantes do Google SEO Office Hours com John Mueller em 24 de dezembro de 2021.
Conteúdo com paywall e camuflagem
00:49 “Em relação a dados de paywall com conteúdo de paywall. […] Nós temos um site. Fizemos muitos artigos e tudo está acessível ao Google. E gostaríamos de adicionar um paywall lá, mas […] apenas […] mostrar o conteúdo do paywall ao Google com os trechos de dados estruturados que você tem. É considerado camuflagem?
Então, eu verifico se é o Googlebot, e só [então] mostro […] os dados estruturados – […] os dados com paywall. Mas então para o usuário comum […], eu não mostro os dados estruturados, tudo bem?”
John não viu o problema com esta solução: “Tudo bem. É, tecnicamente, ainda seria considerado cloaking, porque você está mostrando algo diferente, mas a partir de nossas políticas, que é aceitável. Porque os usuários, […] se passarem pelo paywall, […] verão o conteúdo que você está mostrando ao Googlebot.”
Possíveis problemas de indexação
03:38 “ Publico conteúdo de alta qualidade, enviei um mapa do site e, às vezes, solicito a indexação do Google Search Console. Mas ainda tenho um problema ao indexar novo conteúdo ou ele está indexado [com atraso]. […] É um bug do Google ou é uma nova atualização de algoritmo?”
John respondeu: “Não há bug do nosso lado a esse respeito. […] Nós simplesmente não indexamos todo o conteúdo , e alguns sites geram muito conteúdo. E se não indexarmos tudo […], tudo bem. Mas talvez você queira tudo indexado, e não podemos fazer tudo o tempo todo.
A parte complicada […] é que, no passado, […] muitos sites tecnicamente não eram tão bons. Ficou um pouco mais claro qual tipo de conteúdo não foi indexado. Hoje em dia, os sites estão tecnicamente bem, e é […] como se a barra de qualidade fosse um pouco mais alta […]. Qualquer um pode publicar algo que, teoricamente, poderia ser indexado, mas […] temos que ter certeza de que estamos indexando as coisas certas que são realmente úteis e relevantes para os usuários. Então às vezes temos que deixar algumas coisas sem indexação.”
Atualização de análises de produtos – idiomas e países afetados
14:01 “Sobre a atualização de análises de produtos. […] Mesmo que a atualização afete apenas sites de língua inglesa, eu também estava vendo alguns movimentos na busca em alemão. Eu queria saber se também poderia haver um efeito em sites em outros idiomas por esta atualização de análises de produtos ou qualquer tipo […]?”
Como John disse, “ Minha suposição era que isso era global e em todos os idiomas […]. Mas geralmente tentamos pressionar a equipe de engenharia a tomar uma decisão sobre isso, para que possamos documentar adequadamente na postagem do blog. Não sei se isso aconteceu com a atualização dos comentários do produto. […] Parece algo que poderíamos estar fazendo em vários idiomas e não estariam presos apenas ao inglês. E mesmo que fosse o inglês inicialmente, parece algo relevante em todos os aspectos, e devemos tentar encontrar maneiras de estender isso para outros idiomas ao longo do tempo também. Portanto, não estou particularmente surpreso que você veja as mudanças na Alemanha […].”
Depois de saber que a postagem do blog do Google mencionava apenas a atualização que afetava os sites em inglês, John elaborou ainda mais:
“Com esse tipo de atualização, tentamos começar com um idioma ou um local e ver o que precisamos ajustar, e então expandimos a partir daí. […] Com algo mais relacionado ao conteúdo, geralmente demora um pouco mais para expandir para diferentes idiomas […].”
Localização de páginas para países de língua inglesa
17:53 “Você conhece outras maneiras de localizar o mesmo conjunto de páginas para diferentes países de língua inglesa? […] Temos vários subdomínios com domínio de nível superior .jo, como talvez subdomínios da Austrália, Nova Zelândia, e definimos o país no backend JSA e também usamos hreflang no nível da página. […] Não conseguimos descobrir outras maneiras de nos ajudar a localizar esses subdomínios. Você tem bons métodos ou algumas maneiras que podemos melhorar?”
Veja como John discutiu este tópico:
“Acho que você cobriu os principais. Isso é segmentação geográfica no Search Console e nas configurações hreflang.
A segmentação geográfica funciona em um subdiretório ou nível de subdomínio, todas as páginas estão lá.
Hreflang é por página. Se você tiver uma página inicial para um país e páginas de produtos diferentes para o mesmo país, cada uma dessas páginas precisaria ter links cruzados com hreflang.
Outra coisa que sempre tento recomendar é ter algum tipo de plano de backup, […] algo como um banner baseado em JavaScript que você pode mostrar quando reconhecer que o usuário está na versão errada de um site. Por exemplo, se um usuário da Austrália acabar na página da Inglaterra, você pode mostrar um banner JavaScript dizendo: 'Ei, temos uma versão australiana desta página aqui. Você pode ir direto para lá. A vantagem de um banner baseado em JavaScript é que você pode bloqueá-lo com robots.txt para que, do ponto de vista da indexação, ele não apareça. E se você não redirecionar automaticamente, […] [os mecanismos de busca] poderão processar essas duas versões de forma independente.
Se essas páginas forem essencialmente as mesmas, pode acontecer que tratemos uma dessas páginas como a versão canônica. Por exemplo, se você tem uma página para a Nova Zelândia e Austrália, e todo o conteúdo é o mesmo, a única coisa ligeiramente diferente é a moeda na página, então […] nós dobramos essas páginas e escolhemos uma delas como um canônico e use-o como base para a Pesquisa.
Se você tiver um hreflang, nessas páginas também, usaremos o hreflang para mostrar a versão correta do URL. Mas o conteúdo indexado será apenas da versão canônica e todos os relatórios no Search Console serão para a versão canônica. Isso às vezes torna um pouco complicado, especialmente se você tiver um site maior com […] o mesmo conteúdo para diferentes países.”
Adicionando conteúdo dinâmico às páginas
25:0 “Meu site tem milhões de páginas, como categoria, subcategoria e produto, e-commerce […] páginas. Adicionamos conteúdo dinâmico, porque [com] milhões de páginas […] [é] difícil adicionar conteúdo separado ou […] conteúdo exclusivo em cada página. Adicionamos […] conteúdo baseado em modelo em páginas de categorias, páginas de subcategorias e páginas de produtos. […] Isso seria bom para o desempenho do nosso site ou não, ou devemos atualizar o conteúdo de cada página? […]”.
Veja como João respondeu:
“ Adicionar conteúdo relevante dinamicamente a uma página […] pode fazer sentido porque […] [é] essencialmente apenas fazer […] uma pesquisa de banco de dados e adicionar conteúdo com base nisso. […] Depende muito de como você configurou isso.
A principal coisa que eu evitaria é que você se depare com uma situação em que está adicionando conteúdo artificialmente a uma página apenas na esperança de que essa página tenha uma classificação melhor para as palavras-chave que você adiciona artificialmente. […] Quando os usuários vão lá, eles ficam tipo 'Por que essas palavras-chave aleatórias estão nesta página?' […] Garantir que você realmente tenha conteúdo bom e relevante para essas palavras-chave principais, é mais nisso que eu me concentraria […].”
Quando perguntado adicionalmente se era necessário escrever conteúdo relevante para cada página para o Google ver as páginas como fornecendo valor, John disse:
“Deve ser algo na página que seja relevante. E se for uma página de categoria, então os produtos que você listou lá são muito relevantes […] e geralmente você tem uma descrição dessa categoria. […] Não é que você tenha que escrever um artigo da Wikipedia na parte inferior sobre todos esses produtos e de onde eles vêm […], mas um pouco de informação relevante para a página, isso importa.”
Renderizando e indexando arquivos JavaScript
28:28 “Meu site […] [usa] Reage com renderização do lado do cliente, […] quando desligamos o JavaScript e o navegador, minha página fica totalmente em branco. Essa pode ser a causa da classificação mais baixa ou talvez o desempenho ruim da página da web?”
A resposta de John foi: “ Não deveria ser. […] Para pesquisa, fazemos renderização e processamos o JavaScript nas páginas. Se estiver visível em um navegador normal e você não estiver fazendo nada particularmente ruim, poderemos indexar essas páginas normalmente. Você pode verificar novamente com a ferramenta Inspecionar URL no Search Console para ver se o conteúdo está realmente visível quando o Googlebot tenta renderizar a página e, se o conteúdo estiver visível, tudo estará pronto .”
URLs de indexação gerados por meio de pesquisa em um site
30:11 “Já adicionamos uma caixa de pesquisa em nosso site , para que o usuário entre em nosso site e pesquise por lá, e isso gera uma URL exclusiva para cada pesquisa. Esses URLs devem ser indexáveis ou não ?”
Como John disse: “ Geralmente não. […] Há duas razões principais para isso.
Por um lado, é muito fácil acabar em uma situação em que você tem mais um milhão de URLs que são apenas pesquisas diferentes, o que não fornece nenhum valor para você. Nós o chamamos de espaço infinito [...]. Isso é algo que você quer evitar.
A outra coisa que você quer evitar é que as pessoas façam coisas com spam na caixa de pesquisa e tentem indexá-las , o que pode ser algo como pesquisar seu número de telefone e […] seu tipo de negócio […]. De repente, a página de pesquisa do seu site classifica para esse tipo de negócio e mostra o número de telefone deles, mesmo que você não tenha nenhum conteúdo que corresponda a essas consultas, […] eles fazem isso para tentar ficar visível nos resultados da pesquisa. Eu bloquearia esse tipo de página de pesquisa com robots.txt. Dessa forma, você pode ter certeza de que não poderemos indexar nenhum conteúdo.”
Sites de SEO como YMYL
31:55 “Uma empresa de SEO seria classificada como um site de seu dinheiro ou sua vida , ou está relacionado apenas a sites de aconselhamento médico e financeiro?”
De acordo com John, “[…] eu não acho que sites de SEO sejam tão críticos para a vida das pessoas. Obviamente, se você trabalha em uma empresa de SEO, está vinculado a isso, mas não é que o site em si seja do tipo Your Money ou Your Life. […] Nem todo site que vende algo está nessa categoria.
O que eu recomendaria aqui é, em vez de tentar cegamente ver 'Este tipo de site se enquadra nesta categoria específica?', […] leia sobre de onde veio essa categoria, ou seja, as Diretrizes do Avaliador de Qualidade, e entenda um pouco mais o que o Google está tentando fazer para entender esses diferentes tipos de sites . […] Isso lhe dará um pouco mais de informações básicas sobre o que realmente está acontecendo […].”
Implementação de dados estruturados breadcrumb
39:56 “Quando se trata de dados estruturados de breadcrumb, eles precisam ser exatamente iguais aos breadcrumbs que um visitante veria em uma página? Às vezes, vejo uma versão condensada de breadcrumbs na página, enquanto os dados estruturados são um caminho completo de breadcrumbs. As duas opções são aceitáveis?”
Como John disse, “[…] Tentamos reconhecer se os dados estruturados estão visíveis em uma página ou não. E se não for […], temos que descobrir “Ainda faz sentido mostrar isso nos resultados da pesquisa? ”
Se você estiver fazendo algo como mostrar uma versão mais curta de um breadcrumb em uma página, e não pudermos igualar isso, pode ser um pouco imprevisível, se realmente pegarmos essa marcação de breadcrumb e usá-la.
Se você está pegando migalhas individuais ou […] os itens individuais na lista de migalhas de pão, e você está apenas mostrando alguns deles, mas não todos eles, pode ser que nós apenas os peguemos. Pode ser que ainda peguemos o resto porque vemos […] muitas das partidas de migalhas de pão.
Não é garantido que possamos pegar e usar a marcação de trilha de navegação completa que você tem se não estiver exibindo isso na página , e isso é semelhante a outros tipos de dados estruturados.
Eu acho que a principal exceção […] é […] a marcação de FAQ, onde você tem perguntas e respostas, onde […] a parte importante é que a questão é realmente visível, e a resposta pode ser algo como uma seção recolhida em um página, mas […] pelo menos tem que ser visível.”
Traduzindo apenas algumas páginas em um site
44:00 “Nós administramos um site com menos de 300 páginas de índice, todas em inglês. Estamos procurando traduzir cerca de metade dessas páginas em espanhol, que serão colocadas no subdiretório no mesmo domínio, como /ES, e marcadas como versões de idioma alternativo do conteúdo em inglês. Tudo bem traduzir apenas parte do conteúdo da página ou devemos traduzir tudo para espelhar exatamente o site em inglês e ter a melhor chance de classificação em outros locais?”
John disse: “ Não há problema em traduzir apenas algumas páginas de um site. Analisamos o idioma das páginas individualmente. Se você tem algumas páginas em espanhol, nós apenas olhamos essas páginas em espanhol, quando alguém está pesquisando em espanhol. Não é o caso de dizermos: 'Há muito mais páginas em inglês do que páginas em espanhol aqui. Portanto, o site espanhol é menos importante.' […] Estas são páginas em espanhol e podem ser bem classificadas em espanhol. […] Para os usuários, às vezes, faz sentido ter o máximo de conteúdo traduzido possível. Mas geralmente, isso é algo que você melhora incrementalmente ao longo do tempo, onde você começa com algumas páginas, você as localiza bem e adiciona mais páginas […].
As anotações hreflang também são por página. Se você tem algumas páginas em inglês e em espanhol e as vincula, tudo bem. Se você tiver algumas páginas apenas em espanhol, tudo bem – você não precisa de hreflang. Algumas páginas apenas em inglês, tudo bem. Desse ponto de vista, esta parece ser uma maneira razoável de começar.”
Rastreie o orçamento e os URLs gerados automaticamente
46:12 “O site de que estou falando é um site WordPress. Ele gera automaticamente vários URLs indesejados. […] existe uma maneira de parar o rastreador para descobrir esses URLs? Eu sei que posso 'noindex', e esses são todos sem URLs indexados. Mas então, posso vê-los no Search Console na parte Excluídos. […] É um site de notícias, temos milhares de URLs. […] Isso afetará o orçamento de rastreamento?”
John perguntou sobre o tamanho do site e foi informado de que tinha entre 5.000 e 10.000 URLs.
Diante disso, John disse: “ Eu não me preocuparia com o orçamento rastejante. […] Podemos rastrear tantas páginas com bastante rapidez, geralmente em poucos dias. A outra coisa […] é que o 'noindex' é uma meta tag na página. Temos que rastrear a página para ver a metatag, o que significa que você não pode evitar que verifiquemos as páginas 'noindex'. […] Se vemos que há um 'noindex' na página, geralmente, com o tempo, rastreamos essas páginas com menos frequência. Ainda verificaremos novamente de vez em quando, mas não verificaremos tanto quanto uma página normal indexada de outra forma. A outra abordagem é usar robots.txt. Com o arquivo robots.txt, você pode bloquear completamente o rastreamento dessas páginas. A desvantagem é que às vezes o próprio URL pode ser indexado nos resultados da pesquisa, não o conteúdo da página […].”
João também deu o seguinte exemplo:
“Se você […] tiver um site de notícias de futebol e tiver alguns artigos bloqueados e alguns artigos com permissão para rastreamento, se alguém estiver pesquisando notícias de futebol, eles encontrarão as versões indexáveis de suas páginas e isso não importa que existam outras páginas bloqueadas pelo robots.txt. No entanto, se alguém fizer uma consulta de site explicitamente para essas páginas bloqueadas, você poderá ver esses URLs na pesquisa […]. Em uma situação como a sua, […] eu não me preocuparia com o orçamento de rastreamento.”
John também acrescentou: “ Do ponto de vista prático, tanto o 'noindex' quanto o robots.txt seriam equivalentes. […] Esse conteúdo provavelmente não apareceria nos resultados da pesquisa, e ainda precisaríamos rastreá-lo se não houvesse 'noindex', mas os números são tão pequenos que realmente não importam. Ainda podemos indexá-lo com um URL se eles estiverem bloqueados por robots.txt […]”.
Sobre o método preferido, John disse: “Eu escolheria aquele que é mais fácil de implementar do seu lado. Se […] você tem o WordPress e pode apenas ter uma caixa de seleção na postagem que diz 'Esta página não tem índice', talvez essa seja a abordagem mais fácil […].”
Rastreamento de URLs com parâmetros
54:25 “Vemos em nossos arquivos de log, e também provando que é o Googlebot via IEP, muito rastreamento do bot orgânico para URLs de parâmetros UTM, Google Display e campanhas universais para aplicativos. […] Não vemos nenhum link vindo de nenhum lugar para esses URLs. […] Você tem alguma ideia de onde ou por que isso pode estar acontecendo?”
John respondeu que “O único lugar em que, com o Googlebot, também rastreamos as páginas que você lista em campanhas publicitárias […] é para pesquisa de produtos. Se você tiver um feed de pesquisa de produtos ou um feed do Merchant Center […] configurado, também rastrearemos essas páginas para o Googlebot para garantir que possamos buscá-las no Merchant Center. Se você tiver marcado URLs lá, […] vamos manter esses URLs marcados e reprocessá-los.
Também pode ser que outras pessoas possam enviar esse tipo de produto, […] pode necessariamente não ser você quem os está enviando, mas talvez alguém que esteja trabalhando em seu nome ou tenha permissão para fazer isso também.
Se encontrarmos links para essas páginas em algum lugar, tentaremos rastreá-los. Se você marcou links internos em um site, ainda tentaremos pegá-los e rastreá-los. Se você tiver configurado em JavaScript que talvez tenha URLs de rastreamento com esses parâmetros configurados em algum lugar, e quando processarmos o JavaScript, parece que é um link para esses URLs de rastreamento, também podemos processar isso. […] Parece-me que não são casos individuais […], mas sim um grande número desses URLs, e isso parece muito com o lado do Merchant Center.”