SEO-Sprechstunde, 7. Januar 2022

Veröffentlicht: 2022-01-11

Dies ist eine Zusammenfassung der interessantesten Fragen und Antworten der Google SEO Office Hours mit John Mueller am 7. Januar 2022.

Inhalt verstecken
1 Kann die Konsistenz von Blog-Postings Crawling und Ranking beeinflussen?
2 Beeinflussen hreflang-Tags das Ranking einer Website?
3 Google Chrome-Daten vs. Ranking
4 SERP-Funktionen und Ranking
5 JavaScript-Strings vs. Crawl-Budget
6 Nofollow vs. Noindex-Tags
7 Probleme beim Indexieren einer Seite
8 Das Verkehrsaufkommen für einen Artikel
9 Die Steigerung der Einzigartigkeit von Inhalten im Vergleich zum Ranking

Kann die Konsistenz des Blogpostings das Crawling und das Ranking beeinflussen?

03:28 „Ich habe einen Blog, in dem ich fast jeden Tag einen Artikel poste und [es gibt] eine andere Person [postet] über einen Artikel in einer Woche. Je nach Konsistenz […] wirkt sich dies auf die Häufigkeit aus, mit der Google meine Website crawlt, oder […] hat diese Konsistenz einen Zusammenhang mit dem Ranking?“

Laut John: „Es gibt viele Faktoren, die in das Ranking einfließen, und die Möglichkeit, eine Website zu crawlen und zu indizieren, ist eines dieser Dinge. Aber wenn wir von einer Seite pro Tag oder einer Seite pro Woche sprechen […], die wir crawlen müssen – das ist trivial. Wenn wir jeden Tag über Millionen von Seiten sprechen, dann kommen manchmal die technischen Möglichkeiten ins Spiel, und das Crawl-Budget ist ein Thema. Aber wenn wir von ein paar Seiten pro Tag sprechen, […] oder sogar zehntausend Seiten pro Tag, dann können wir das normalerweise sowieso in einer angemessenen Zeit kriechen. Es geht also weniger darum, es rechtzeitig crawlen zu können, als vielmehr um all die anderen Faktoren, die wir rund um die Suche verwenden.“

05:27 „Als ich früher jeden Tag einen Artikel gepostet habe, habe ich gesehen, dass Google meine Website fast jeden Tag gecrawlt hat. […] Aber als ich inkonsequent wurde, sah ich, dass Google die Seite höchstens alle zwei Tage einmal überquerte. Ist das eine Tatsache?“

John sagte: „Das kann passieren. Wir crawlen nicht so sehr eine Website, sondern wir crawlen einzelne Seiten einer Website. Wenn es ums Crawlen geht, haben wir grob zwei Arten von Crawling. Das eine ist ein Entdeckungs-Crawl, bei dem wir versuchen, neue Seiten auf Ihrer Website zu entdecken, und das andere ist das Aktualisierungs-Crawl, bei dem wir vorhandene Seiten aktualisieren, die uns bekannt sind. Zum größten Teil würden wir die Homepage zum Beispiel einmal am Tag oder alle paar Stunden aktualisieren. Und wenn wir neue Links auf ihrer Homepage finden, gehen wir los und crawlen diese ebenfalls mit dem Discovery-Crawl. Aus diesem Grund sehen Sie in Bezug auf das Crawlen immer eine Mischung aus Entdecken und Aktualisieren, und Sie werden jeden Tag eine gewisse Grundlinie des Crawlens sehen.

Aber wenn wir erkennen, dass sich einzelne Seiten sehr selten ändern, dann erkennen wir, dass wir sie nicht ständig crawlen müssen. Wenn Sie beispielsweise eine Nachrichten-Website haben und diese stündlich aktualisieren, sollten wir lernen, dass wir sie stündlich crawlen müssen. Wenn es sich hingegen um eine Nachrichten-Website handelt, die einmal im Monat aktualisiert wird, sollten wir lernen, dass wir nicht jede Stunde crawlen müssen. Das ist kein Zeichen von Qualität oder Ranking. Nur aus technischer Sicht haben wir gelernt, dass wir das einmal am Tag oder einmal in der Woche crawlen können, und das ist in Ordnung.“

Beeinflussen hreflang-Tags das Ranking einer Website?

09:47 „Ich habe eine Website, die in einer bestimmten Sprache sehr gut funktioniert. Dann beschloss ich, eine englische Version dieser Website zu erstellen, um Personen in einer neuen Domain anzusprechen. Soll ich ein hreflang-Tag hinzufügen, um diese beiden separaten Domains zu verbinden, oder es allein lassen, damit Google es selbst herausfindet? Können diese hreflang-Tags die Leistung meiner Website beeinträchtigen?“

John antwortete: „Hreflang ist seitenweise, daher wäre es nur sinnvoll, wenn Sie entsprechende Seiten in anderen Sprachen oder für andere Länder haben. Es ist nicht etwas, das „die ganze Website“ macht. Wenn Sie also einige Seiten haben, die gleichwertige Versionen haben, ist die Verwendung von hreflang eine gute Möglichkeit, sie zu verbinden. Was mit hreflang passiert ist, dass das Ranking gleich bleibt, aber wir versuchen, die URL gegen die am besten passende auszutauschen. Wenn also jemand nach dem Namen Ihrer Website sucht und wir eine englische Version und eine französische Version haben, dann werden wir versuchen, die französische Version der Homepage anzuzeigen, wenn wir feststellen können, dass sich der Benutzer in Frankreich befindet oder auf Französisch sucht. Das funktioniert in denselben [und] verschiedenen Domänen.“

John schloss: „Das ist im Wesentlichen eine gute Praxis, [aber] es ist nicht notwendig. Es ändert nichts an den Rankings, aber es hilft sicherzustellen, dass Ihre bevorzugte Version dem Benutzer angezeigt wird. Es garantiert es nicht, aber es erleichtert uns, die bevorzugte Sprachversion anzuzeigen. Wenn also jemand auf Französisch sucht und wir Ihre französische und Ihre englische Seite haben, würden wir ihm nicht versehentlich die englische Seite zeigen.“

Google Chrome-Daten vs. Ranking

12:39Welche Daten sammelt Google Chrome von Nutzern für das Ranking?“

John sagte: Ich glaube nicht, dass wir etwas von Google Chrome für das Ranking verwenden. Das einzige, was mit Chrome passiert, ist der Page Experience-Bericht. Wir verwenden die Daten des Chrome-Benutzererfahrungsberichts , d. h. die aggregierten Daten darüber, was Benutzer gesehen haben, als sie die Website besuchten, insbesondere in Bezug auf die Seitenerfahrung.“

John versicherte auch, dass Google keine Google Analytics-Daten für das Ranking verwendet, aber Metriken wie Absprungrate oder Zeit auf der Seite „sind manchmal nützlich für Websitebesitzer, aber das bedeutet nicht, dass sie für die Suche nützlich sind benutzen."

SERP-Funktionen und -Ranking

27:56 „Da die Anzahl der Funktionen in den Suchergebnissen zunimmt, frage ich mich, ob und wie die Google Search Console Rankings, zum Beispiel die Google Map Packs oder People Also Ask, in Metriken wie durchschnittliche Position und Klicks usw. einbezieht . Wenn nicht, wie kann ich am besten feststellen, ob meine Website in diesen verschiedenen Funktionen rankt?“

John antwortete: „Zum größten Teil ja, wir nehmen all das in die Daten des Leistungsberichts in der Search Console auf. Jedes Mal, wenn wir eine URL von Ihrer Website in den Suchergebnissen anzeigen, zeigen wir diese als Impression für diese Website [und] Suchanfrage an.

Da kommt auch die Average Position ins Spiel, und die ist nicht wie die durchschnittliche Position auf einer Seite, sondern die durchschnittliche Top-Position. Wenn Ihre Website beispielsweise an den Positionen drei, vier und fünf sichtbar ist, verfolgen wir die Position drei als Position für diese einzelne Suchanfrage. […]

Was Sie bei vielen dieser Features nicht sehen, ist eine Aufschlüsselung nach Feature-Typ. Sie können also nicht hineingehen und sagen, wo meine Website immer in Google Business-Profilen oder den Kartensuchen angezeigt wird. Wir zeigen das nicht, aber wir zählen es als Impression für diese einzelnen Suchanfragen. Sie könnten diese Abfragen nehmen, sie ausprobieren und sehen, wo Ihre Website angezeigt wird, und versuchen, sie so zurückzuverfolgen.

Manchmal erschweren die unterschiedlichen Merkmale in den normalen Suchergebnissen die Nachverfolgung. Wenn wir zum Beispiel ein Bild von Ihrer Website auf einer normalen Suchergebnisseite über dem Thumbnail des Bildes anzeigen, dann zählen wir dies auch dazu, dass Ihre Website im Ranking für diese Suchanfrage erscheint. Und wenn Sie sich die Suchergebnisse textuell ansehen, dann sehen Sie das vielleicht nicht sofort, aber all das sollte ins Spiel kommen.

Wenn wir neue Funktionen einführen, bei denen wir auch die Website auflisten, versuchen wir darauf zu achten, dass wir diese auch in die Search Console aufnehmen. Es sollte also nicht der Fall sein, dass wir einen Link zu Ihrer Website anzeigen und diesen nicht verfolgen als Impression mit der Position und den Klicks in der Search Console.“

JavaScript-Strings vs. Crawl-Budget

30:32 „Wir sehen, dass jeder JavaScript-String, der mit einem Schrägstrich beginnt, als URL interpretiert wird und von Googlebot gefolgt wird. Manchmal ist die URL ungültig und wir sehen verschiedene Crawling-Fehler in der Search Console. Gibt es eine offizielle Empfehlung, wie man solche URLs nofollowen kann? Früher haben wir die Saiten in zwei oder mehr Teile geteilt. Kann sich das Vorhandensein von Millionen von Seiten mit solchen Zeichenfolgen negativ auf das Crawl-Budget auswirken?“

Johns Antwort war: „Beim Crawlen priorisieren wir die Dinge auf unterschiedliche Weise, und all diese zufälligen URL-Entdeckungen, auf die wir stoßen, wenn Ihre URL in einem Text oder einer JavaScript-Datei erwähnt wird […], sind in der Regel ziemlich niedrig Die Liste. Wenn wir also etwas Wichtiges auf Ihrer Website erkennen, alle neuen Seiten, die Sie mit neuen Inhalten verknüpfen, die Sie erstellt haben, priorisieren wir diese zuerst. Wenn wir dann Zeit haben, gehen wir auch all diese zufälligen URL-Erwähnungen durch, die wir entdeckt haben. Aus Sicht des Crawl-Budgets ist dies also normalerweise kein Problem .

Wenn Sie feststellen, dass Ihre Website insgesamt zu stark gecrawlt wird, können Sie die Crawling-Menge in der Search Console mit den Einstellungen für die Crawling-Rate anpassen. Auch hier priorisieren wir die Dinge immer noch. Wenn Sie also die Einstellung auf einen ziemlich niedrigen Wert setzen, versuchen wir immer noch, uns zuerst auf die wichtigen Dinge zu konzentrieren. Und wenn wir die wichtigen Dinge abdecken können, werden wir versuchen, den Rest durchzugehen. Wenn Sie also sehen, dass wir Ihren Server zu stark belasten, können Sie dies nach ein oder zwei Tagen anpassen. Es sollte sich bei dieser neuen Geschwindigkeit beruhigen, und wir sollten in der Lage sein, weiter zu kriechen.

In Bezug auf Nofollowing dieser URLs können Sie dies in den JavaScript-Dateien nicht tun. Wir versuchen, URLs in JavaScript zu erkennen, da URLs manchmal nur in JavaScript erwähnt werden. Sie können diese URLs jedoch in eine JavaScript-Datei einfügen, die von robots.txt blockiert wird. Und wenn die URL von robots.txt blockiert wird, können wir die JavaScript-Datei nicht sehen und wir werden diese URLs nicht sehen. Wenn es also etwas Kritisches ist […], dann könnten Sie robots.txt verwenden, um diese JavaScript-Datei zu blockieren.

Der wichtige Teil hier ist, daran zu denken, dass Ihre Website mit dieser blockierten Datei immer noch normal gerendert werden sollte. In Chrome können Sie also diese einzelne URL blockieren und testen, aber insbesondere die Mobilfreundlichkeit einer Seite sollte dennoch gewährleistet sein. Wir sollten das Layout der Seite immer noch richtig sehen können, wenn diese JavaScript-Datei blockiert ist.

Wenn also nur interaktive Funktionen blockiert werden, ist das normalerweise weniger problematisch. Wenn es das gesamte JavaScript blockiert und Ihre Seite überhaupt nicht mehr funktioniert, dann würde ich sagen, dass Sie vielleicht einen anderen Ansatz finden müssen, um damit umzugehen.“

Nofollow vs. Noindex-Tags

34:46 „Kann rel=“nofollow“ als „noindex“ verwendet werden? Wenn ich beispielsweise einen Artikel auf meiner Website und auf jeder Seite veröffentliche, auf der dieser Artikel erwähnt wird, verwende ich rel=“nofollow“ in der URL mit diesem Artikel.“

John sagte: „Nein. Nofollow weist uns an, keinen PageRank an diese Seiten weiterzugeben, aber das bedeutet nicht, dass wir diese Seiten niemals indizieren werden. Wenn Sie möchten, dass eine Seite für die Indexierung gesperrt wird, stellen Sie sicher, dass sie einen noindex enthält. Verlassen Sie sich nicht darauf, dass wir nicht versehentlich auf einen zufälligen Link zu dieser Seite stoßen, also würde ich nicht davon ausgehen, dass diese beiden gleich sind.

Insbesondere im Hinblick auf neue Inhalte im Web […] verwenden wir manchmal auch [rel=“nofollow“] zum Auffinden von URLs. Auf der einen Seite sehen wir diesen Link also möglicherweise ohne [und mit] einem Nofollow und sehen ihn uns trotzdem an. Wenn Sie nicht möchten, dass eine Seite indexiert wird, stellen Sie sicher, dass sie nicht indexiert ist.“

Probleme beim Indexieren einer Seite

35:56 „Wir haben vor etwa einem Monat eine Zielseite veröffentlicht, die noch nicht indexiert wurde. Ich habe [es] mit der Live-URL getestet und einige Male die Indexierung angefordert. Ich verstehe, dass die Indexierung nicht immer schnell geht, aber das ist das erste Mal, dass eine Zielseite auf unserer Website nach ein paar Tagen nicht indexiert wird, also frage ich mich, ob ich vielleicht etwas übersehen habe?“

Laut John: „Es ist wirklich schwer zu sagen, ohne die einzelnen URLs zu kennen. Wir indizieren nicht alles im Web, daher ist es bei den meisten Websites völlig üblich, dass wir einen Teil der Website indizieren, aber nicht absolut alles auf der Website. Das könnte also etwas sein, das Sie dort sehen.

In Bezug auf die Menge an Inhalten, die wir von einzelnen Websites indizieren, hängt das manchmal ein wenig von unserem Verständnis der Qualität der Website selbst ab. Wenn wir also der Meinung sind, dass dies eine qualitativ hochwertige und wichtige Website ist, versuchen wir vielleicht, diese Inhalte so schnell wie möglich zu crawlen und zu indizieren, aber dafür gibt es keine Garantie.

Aus dieser Sicht ist es schwierig zu erkennen, was hier genau passiert. Was ich in einem solchen Fall tun könnte, ist, im Hilfeforum zu posten , um sicherzustellen, dass es keine technischen Probleme gibt, die diese URL zurückhalten. Dann geben Sie ihm ansonsten etwas mehr Zeit oder sehen Sie, was Sie insgesamt tun können, um die Qualität der Website im Allgemeinen zu verbessern, was normalerweise eher ein langfristiges Ziel ist als etwas, das Sie nur schnell optimieren und hoffen können, dass Google werde es abholen und morgen wird alles anders sein.“

Das Verkehrsaufkommen für einen Artikel

37:44 „Ich möchte einige Inhalte auf meiner Website beschneiden. Schwacher Verkehr ist eines der Kriterien. Was würdest du als akzeptables Minimum an Traffic betrachten, um einen Artikel zu behalten?“

John antwortete: „Ich glaube nicht, dass es Grund genug ist zu sagen, dass es sich um eine gute oder schlechte Seite handelt, wenn man einfach nur abgeht und sich den Verkehr auf einer Seite ansieht. Manche Seiten haben nicht viel Verkehr, sind aber extrem wichtig. Wenn Sie beispielsweise Weihnachtsbäume verkaufen, erwarten Sie wahrscheinlich, dass diese Seiten im Dezember in den Suchergebnissen angezeigt werden. Wenn Sie sich also Januar oder März ansehen und sich die Zugriffe auf Ihre Seiten ansehen, werden Sie sagen , […], ich sollte alle meine Weihnachtsbaumseiten löschen. Aber das ist dort nicht das Richtige – diese Seiten werden irgendwann relevant sein. Ebenso können andere Arten von Seiten auf Ihrer Website sehr wenig Verkehr erhalten, aber sie könnten wirklich gute Seiten sein, und sie könnten insgesamt wichtige Informationen im Web darstellen. Also gehe ich rein und sage bei diesem Traffic-Niveau, ich werde alles von meiner Website löschen, ich denke nicht, dass das Sinn macht.“

Die Steigerung der Einzigartigkeit von Inhalten im Vergleich zum Ranking

43:35 „Wirkt sich eine signifikante Erhöhung der Gesamteinzigartigkeit des Inhalts einer Website nicht auf das Ranking und die Sichtbarkeit der Website in den Suchergebnissen aus? Lohnt es sich dann nicht, gegen Content-Diebstahl vorzugehen?“

John antwortete: „Soweit ich weiß, gibt es keinen Aspekt in unseren Algorithmen, der besagt, dass dies etwas Einzigartiges für diese eine Website ist, und weil es hier etwas sehr Einzigartiges gibt, werden wir es für alle Arten von anderen Anfragen höher einstufen. Wenn Sie eine einzigartige Art von Schuhen verkaufen und jemand nach Schuhen sucht, dann würden wir Ihre Website nicht deshalb ranken, weil es sich um eine einzigartige Art von Schuhen handelt. Aber eher haben Sie Schuhe, diese Person sucht nach Schuhen, und vielleicht haben andere Websites auch Schuhe, und wir ordnen sie basierend auf der Art des Schuhinhalts, den wir dort finden. Es geht also nicht darum, dass wir durchgehen und sagen, na ja, hier gibt es nur etwas sehr Einzigartiges, deshalb sollten wir es für diesen allgemeineren Begriff höher einstufen.

Wenn Sie etwas Einzigartiges haben und jemand danach sucht, werden wir natürlich versuchen, Ihre Website dort zu zeigen, und das ist auch der Grund für Dinge wie den DMCA-Beschwerdeprozess, bei dem Sie sagen können, dass jemand anderes mit meinen einzigartigen Dingen rankt und ich möchte nicht, dass sie auftauchen, weil das mein Inhalt ist oder ich zumindest das Urheberrecht daran habe. […] Wenn Sie sehen, dass andere Websites für Ihre spezifische Sache ranken, für diese einzigartige Sache, die Sie auf Ihrer Website haben, und Sie ein Urheberrecht an Ihren Inhalten haben und was auch immer sonst dazu passt, wofür Sie einen DMCA-Prozess verwenden können, dann ist das a perfektes Werkzeug, um zu versuchen, das zu bereinigen. Aber es ist nicht so, dass wir Ihre Website höher einstufen, nur weil wir einige einzigartige Dinge auf Ihrer Website gesehen haben.“