Heures de bureau SEO, 7 janvier 2022
Publié: 2022-01-11Ceci est un résumé des questions et réponses les plus intéressantes des heures de bureau Google SEO avec John Mueller le 7 janvier 2022.
La cohérence de la publication d'un blog peut-elle affecter l'exploration et le classement ?
03:28 « J'ai un blog sur lequel je publie presque un article par jour et [il y a] une autre personne [qui publie] environ un article par semaine. Selon la cohérence, […] cela affectera-t-il la fréquence à laquelle Google explorera mon site Web, ou […] cette cohérence a-t-elle un lien avec le classement ? »
Selon John, « De nombreux facteurs entrent en ligne de compte dans le classement, et être capable d'explorer et d'indexer un site Web en fait partie. Mais si on parle d'une page par jour ou d'une page par semaine […] à crawler, c'est trivial. Si nous parlons de millions de pages chaque jour, alors parfois les capacités techniques entrent en jeu, et le budget de crawl est un sujet. Mais si nous parlons de quelques pages par jour, […] ou même de dix mille pages par jour, alors c'est quelque chose que nous pouvons généralement explorer en un temps raisonnable de toute façon. Il s'agit donc moins de pouvoir l'explorer à temps que de tous les autres facteurs que nous utilisons pour la recherche. »
05:27 "Lorsque je publiais un article par jour, j'ai vu que Google explorait mon site Web presque tous les jours. […] Mais quand je suis devenu incohérent, j'ai vu que Google traversait le site une fois tous les deux jours ou moins. Est-ce un fait ?
Jean a dit : « Cela peut arriver. Ce n'est pas tant que nous explorons un site Web, mais nous explorons des pages individuelles d'un site Web. En ce qui concerne l'exploration, nous avons à peu près deux types d'exploration. L'un est un crawl Discovery où nous essayons de découvrir de nouvelles pages sur votre site Web, et l'autre est le crawl Refresh où nous mettons à jour les pages existantes que nous connaissons. Dans la plupart des cas, par exemple, nous actualiserions la page d'accueil une fois par jour ou toutes les deux heures. Et si nous trouvons de nouveaux liens sur leur page d'accueil, nous les explorerons également avec le crawl Discovery. Pour cette raison, vous verrez toujours un mélange de découverte et d'actualisation en ce qui concerne l'exploration, et vous verrez une base d'exploration se produire tous les jours.
Mais si nous reconnaissons que les pages individuelles changent très rarement, alors nous réalisons que nous n'avons pas à les explorer tout le temps. Par exemple, si vous avez un site Web d'actualités et que vous le mettez à jour toutes les heures, nous devons savoir que nous devons l'explorer toutes les heures. Alors que s'il s'agit d'un site Web d'actualités qui se met à jour une fois par mois, nous devrions apprendre que nous n'avons pas besoin d'explorer toutes les heures. Ce n'est pas un signe de qualité ou de classement. Juste, d'un point de vue technique, nous avons appris que nous pouvons explorer cela une fois par jour ou une fois par semaine, et ça va.
Les balises hreflang affectent-elles le classement d'un site Web ?
09:47 "J'ai un site Web [qui] fonctionne très bien dans une langue particulière. Ensuite, j'ai décidé de créer une version anglaise de ce site Web pour cibler les personnes dans un nouveau domaine. Dois-je ajouter une balise hreflang pour connecter ces deux domaines distincts ou laisser Google se débrouiller seul ? Ces balises hreflang peuvent-elles avoir un impact sur les performances de mon site ? »
John a répondu: «Hreflang est basé sur une page, donc cela n'aurait de sens que si vous avez des pages équivalentes dans d'autres langues ou pour d'autres pays. Ce n'est pas quelque chose qui fait « tout le site Web ». Donc, si vous avez des pages qui ont des versions équivalentes, utiliser hreflang est un bon moyen de les connecter. Ce qui se passe avec hreflang, c'est que le classement reste le même, mais nous essayons d'échanger l'URL contre celle qui convient le mieux. Donc, si quelqu'un recherche le nom de votre site Web et que nous avons une version anglaise et une version française, alors si nous pouvons dire que l'utilisateur est en France ou effectue une recherche en français, nous essaierons d'afficher la version française de la page d'accueil. Cela fonctionne dans les mêmes [et] domaines différents.
John a conclu : « c'est essentiellement une bonne pratique [mais] ce n'est pas nécessaire. Cela ne change pas le classement, mais cela aide à s'assurer que votre version préférée est montrée à l'utilisateur. Cela ne le garantit pas, mais cela nous permet d'afficher plus facilement la version linguistique préférée. Donc, si quelqu'un fait une recherche en français et que nous avons vos pages en français et en anglais, nous ne lui montrerons pas accidentellement la page en anglais.
Données Google Chrome vs classement
12:39 " Quelles données Google Chrome collecte-t-il auprès des utilisateurs pour le classement ?"
John a déclaré : « Je ne pense pas que nous utilisions quoi que ce soit de Google Chrome pour le classement. La seule chose qui se passe avec Chrome concerne le rapport Page Experience. Nous utilisons les données du rapport sur l'expérience utilisateur de Chrome , qui sont des données agrégées de ce que les utilisateurs ont vu lorsqu'ils se sont rendus sur le site Web en ce qui concerne spécifiquement l'expérience de la page.
John a également rassuré que Google n'utilise pas les données de Google Analytics pour le classement, mais des mesures telles que le taux de rebond ou le temps passé sur la page "sont parfois utiles pour les propriétaires de sites, mais cela ne signifie pas qu'elles sont utiles pour la recherche. utiliser."
Fonctionnalités et classement SERP
27:56 "Étant donné que le nombre de fonctionnalités augmente dans les résultats de recherche, je me demande si, et comment Google Search Console inclut les classements, par exemple, Google Map Packs ou People Also Ask dans des mesures telles que la position moyenne et les clics, etc. Si non, quel est le meilleur moyen de voir si mon site Web se classe dans ces différentes fonctionnalités ? »
John a répondu : "Pour la plupart, oui, nous incluons tout cela dans les données du rapport sur les performances dans la Search Console. Chaque fois que nous affichons une URL de votre site Web dans les résultats de recherche, nous l'affichons comme une impression pour ce site Web [et] la requête.
La position moyenne entre également en jeu là-bas, et ce n'est pas comme la position moyenne sur une page mais la position supérieure moyenne. Donc, si votre site Web est visible aux positions trois, quatre et cinq, par exemple, nous suivrons trois comme position pour cette requête individuelle. […]
Ce que vous ne voyez pas pour beaucoup de ces fonctionnalités, c'est une ventilation par type de fonctionnalité. Vous ne pouvez donc pas entrer et dire où mon site Web est toujours affiché dans les profils Google Business ou les recherches cartographiques. Nous ne montrons pas cela, mais nous comptons cela comme une impression pour ces requêtes individuelles. Vous pouvez prendre ces requêtes, les essayer et voir où votre site Web est affiché, et essayer de le suivre comme ça.
Parfois, les différentes fonctionnalités des résultats de recherche normaux rendent les choses difficiles à suivre. Par exemple, si nous affichons une image de votre site Web au-dessus de la vignette de l'image dans une page de résultats de recherche normale, nous comptons également cela comme votre site Web apparaissant dans le classement pour cette requête. Et si vous regardez les résultats de la recherche de manière textuelle, vous ne le verrez peut-être pas immédiatement, mais tout cela devrait entrer en jeu.
Lorsque nous lançons de nouvelles fonctionnalités où nous répertorions également le site Web, nous essayons de veiller à ce que nous l'incluions également dans la Search Console, de sorte que nous ne devrions pas afficher un lien vers votre site Web et ne pas suivre cela comme une impression avec la Position et les Clics dans la Search Console.”
Chaînes JavaScript vs budget de crawl
30:32 "Nous voyons que chaque chaîne JavaScript commençant par une barre oblique est interprétée comme une URL et est suivie par Googlebot. Parfois, l'URL n'est pas valide et nous constatons différentes erreurs d'exploration dans la Search Console. Existe-t-il une recommandation officielle sur la façon de ne pas suivre ces URL ? Nous avions l'habitude de diviser les cordes en deux parties ou plus. Le fait d'avoir des millions de pages avec de telles chaînes peut-il avoir un impact négatif sur le budget de crawl ? »

La réponse de John a été : "En ce qui concerne l'exploration, nous priorisons les choses de différentes manières, et toutes ces découvertes d'URL aléatoires que nous rencontrons lorsque votre URL est mentionnée dans un texte ou un fichier JavaScript […] ont tendance à être assez faibles. la liste. Donc, si nous avons quelque chose d'important que nous reconnaissons sur votre site Web, toute nouvelle page que vous liez à tout nouveau contenu que vous avez créé, nous donnerons la priorité à cela en premier. Ensuite, si nous avons le temps, nous passerons également en revue toutes ces mentions d'URL aléatoires que nous avons découvertes. Donc , du point de vue du budget de crawl, ce n'est généralement pas un problème.
Si vous constatez que, dans l'ensemble, nous explorons trop votre site Web, vous pouvez ajuster la quantité d'exploration dans la Search Console avec les paramètres de vitesse d'exploration. Encore une fois, ici, nous priorisons toujours les choses, donc si vous réglez le paramètre sur une valeur assez basse, nous essaierons toujours de nous concentrer d'abord sur les choses importantes. Et si nous pouvons couvrir les choses importantes, alors nous essaierons de faire le reste. De ce point de vue, si vous voyez que nous frappons trop fort votre serveur, vous pouvez ajuster cela après un jour ou deux. Il devrait se stabiliser à ce nouveau rythme et nous devrions pouvoir continuer à ramper.
En ce qui concerne le fait de ne pas suivre ces URL, vous ne pouvez pas le faire dans les fichiers JavaScript. Nous essayons de reconnaître les URL en JavaScript car parfois les URL ne sont mentionnées qu'en JavaScript. Cependant, vous pouvez placer ces URL dans un fichier JavaScript bloqué par robots.txt. Et si l'URL est bloquée par robots.txt, nous ne pourrons pas voir le fichier JavaScript et nous ne verrons pas ces URL. Donc, s'il s'agit d'une chose critique […], vous pouvez utiliser robots.txt pour bloquer ce fichier JavaScript.
La partie importante ici est de garder à l'esprit que votre site doit toujours s'afficher normalement avec ce fichier bloqué. Ainsi, dans Chrome, vous pouvez bloquer cette URL individuelle et la tester, mais surtout la compatibilité mobile d'une page doit toujours être garantie. Nous devrions toujours être en mesure de voir correctement la mise en page de la page avec ce fichier JavaScript bloqué.
Donc, si ce n'est que la fonctionnalité interactive qui est bloquée par cela, alors c'est généralement moins un problème. Si cela bloque tout le JavaScript et que votre page ne fonctionne plus du tout, alors je dirais que vous devez peut-être trouver une approche différente pour gérer cela.
Nofollow vs balises noindex
34:46 "Peut-on utiliser rel="nofollow" comme "noindex" ? Par exemple, lorsque je publie un article sur mon site Web et sur chaque page où cet article est mentionné, j'utiliserai rel = "nofollow" dans l'URL avec cet article.
Jean a dit : « Non. Nofollow nous dit de ne transmettre aucun PageRank à ces pages, mais cela ne signifie pas que nous n'indexerons jamais ces pages. Si vous souhaitez qu'une page ne soit pas indexée, assurez-vous qu'elle contient un noindex. Ne comptez pas sur nous pour ne pas tomber accidentellement sur un lien aléatoire vers cette page, donc je ne supposerais pas que ces deux sont les mêmes.
En particulier, en ce qui concerne le nouveau contenu sur le Web, […] nous utilisons parfois [rel=" nofollow"] pour la découverte d'URL également. Donc, d'une part, nous pourrions voir ce lien sans [et avec] un nofollow, et quand même, regardez-le quand même. Si vous ne voulez pas qu'une page soit indexée, assurez-vous qu'elle ne l'est pas.
Problèmes d'indexation d'une page
35:56 "Nous avons publié une page de destination il y a environ un mois, et elle n'a pas encore été indexée. Je l'ai testé avec l'URL en direct et j'ai demandé l'indexation à quelques reprises. Je comprends que l'indexation ne se fait pas toujours rapidement, mais c'est la première fois qu'une page de destination sur notre site n'est pas indexée après quelques jours, alors je me demande s'il y a quelque chose que j'ai manqué ? »
Selon John, « C'est vraiment difficile à dire sans connaître les URL individuelles. Nous n'indexons pas tout sur le Web, il est donc tout à fait courant que pour la plupart des sites Web, nous indexions une partie du site Web, mais pas absolument tout sur le site Web, donc cela pourrait être quelque chose que vous voyez là-bas.
En ce qui concerne la quantité de contenu que nous indexons à partir de sites Web individuels, cela dépend parfois un peu de notre compréhension de la qualité du site Web lui-même. Donc, si nous pensons qu'il s'agit d'un site Web important et de haute qualité, nous essaierons peut-être d'explorer et d'indexer ce contenu le plus rapidement possible, mais il n'y a aucune garantie.
De ce point de vue, il est difficile de voir exactement ce qui se passe ici. Ce que je pourrais faire dans un cas comme celui-ci, c'est de poster dans le forum d'aide pour m'assurer qu'aucun problème technique ne retient cette URL. Sinon, donnez-lui un peu plus de temps ou voyez ce que vous pouvez faire globalement pour améliorer la qualité du site Web en général, ce qui est généralement quelque chose qui est plus un objectif à long terme plutôt que quelque chose que vous pouvez simplement modifier rapidement et espérer que Google va le ramasser et demain tout sera différent.
Le niveau de trafic d'un article
37:44 "Je cherche à élaguer du contenu sur mon site. La faible fréquentation est l'un des critères. Que considérez-vous comme le niveau de trafic minimum acceptable pour conserver un article ? »
John a répondu : « Je ne pense pas que se contenter de regarder le trafic vers une page soit une raison suffisante pour dire que c'est une bonne ou une mauvaise page. Certaines pages ne reçoivent pas beaucoup de trafic mais sont extrêmement importantes. Par exemple, si vous vendez des arbres de Noël, vous vous attendez probablement à ce que ces pages soient visibles dans les résultats de recherche en décembre, donc si vous regardez en janvier ou mars et que vous regardez le trafic vers vos pages, vous direz , […], je devrais supprimer toutes mes pages de sapins de Noël. Mais ce n'est pas la bonne chose à faire ici – ces pages seront pertinentes à un moment donné dans le futur. De même, d'autres types de pages de votre site Web peuvent générer très peu de trafic, mais il peut s'agir de très bonnes pages et d'éléments d'information importants sur le Web dans son ensemble. Donc, entrer et dire à ce niveau de trafic, je vais tout supprimer de mon site Web, je ne pense pas que cela ait de sens.
L'augmentation de l'unicité du contenu par rapport au classement
43:35 « Une augmentation significative de l'unicité globale du contenu d'un site n'a-t-elle aucun effet sur le classement et la visibilité du site dans les résultats de recherche ? Alors, est-ce que ça ne vaut pas la peine de lutter contre le vol de contenu ?
John a répondu : "Pour autant que je sache, aucun aspect de nos algorithmes ne dit que c'est quelque chose d'unique à ce site Web et parce qu'il y a quelque chose de très unique ici, nous le classerons plus haut pour toutes sortes d'autres requêtes. Si vous vendez un type de chaussures unique et que quelqu'un recherche des chaussures, nous ne classerons pas votre site parce qu'il s'agit d'un type de chaussures unique. Mais plutôt vous avez des chaussures, cette personne recherche des chaussures, et peut-être que d'autres sites ont également des chaussures, et nous les classerons en fonction du type de contenu de chaussures que nous y trouvons. Il ne s'agit donc pas pour nous de passer en revue et de dire, eh bien, il n'y a que quelque chose de très unique ici, donc nous devrions le classer plus haut pour ce terme plus générique.
Évidemment, si vous avez quelque chose d'unique et que quelqu'un recherche cette chose unique, alors nous essaierons d'y montrer votre site, et c'est aussi la raison pour des choses comme le processus de plainte DMCA où vous pouvez dire que quelqu'un d'autre se classe avec mes choses uniques et je ne veux pas qu'ils s'affichent parce que c'est mon contenu ou que j'ai des droits d'auteur dessus. […] Si vous voyez que d'autres sites se classent pour votre chose spécifique pour cette chose unique que vous avez sur votre site Web et que vous avez un droit d'auteur sur votre contenu et tout ce qui s'aligne pour lequel vous pouvez utiliser un processus DMCA , c'est un outil parfaitement bien pour essayer d'aider à nettoyer cela. Mais ce n'est pas le cas que nous classerons votre site Web plus haut simplement parce que nous avons vu des choses uniques sur votre site Web.