Godziny pracy SEO – 24 grudnia 2021 r.

Opublikowany: 2021-12-29

Oto podsumowanie najciekawszych pytań i odpowiedzi z godzin pracy Google SEO z Johnem Muellerem 24 grudnia 2021 r.

Ukryj zawartość
1 Płatna zawartość i maskowanie
2 Potencjalne problemy z indeksowaniem
3 Aktualizacja recenzji produktów — języki i kraje, których dotyczy problem
4 strony lokalizacyjne dla krajów anglojęzycznych
5 Dodawanie dynamicznej zawartości do stron
6 Renderowanie i indeksowanie plików JavaScript
7 Indeksowanie adresów URL generowanych przez wyszukiwanie w witrynie
8 witryn SEO jako YMYL
9 Wdrażanie uporządkowanych danych typu breadcrumb
10 Tłumaczenie tylko niektórych stron w witrynie
11 Budżet indeksowania i automatycznie generowane adresy URL
12 indeksujących adresów URL z parametrami

Treści płatne i maskowanie

00:49 „W odniesieniu do danych płatnych z treścią płatną. […] Mamy stronę internetową. Zrobiliśmy wiele artykułów i wszystko jest dostępne dla Google. Chcielibyśmy dodać tam płatną zaporę, ale […] tylko […] pokaż Google treści płatne za pomocą fragmentów danych strukturalnych, które posiadasz. Czy jest to uważane za maskowanie?

Sprawdzam więc, czy to Googlebot, i dopiero [wtedy] pokazuję […] dane ustrukturyzowane – […] dane płatne. Ale dla zwykłego użytkownika […] nie pokazuję uporządkowanych danych, czy to w porządku?”

John nie widział problemu z tym rozwiązaniem: „W porządku. Z technicznego punktu widzenia byłoby to nadal uważane za maskowanie, ponieważ pokazujesz coś innego, ale jest to dopuszczalne w stosunku do naszych zasad. Ponieważ użytkownicy […] jeśli przejdą przez paywall, […] zobaczą treści, które pokazujesz Googlebotowi”.

Potencjalne problemy z indeksowaniem

03:38 „Publikuję treści wysokiej jakości, przesłałem mapę witryny, a czasami żądam indeksowania z Google Search Console. Ale nadal mam problem z indeksowaniem nowej treści lub jest ona indeksowana [z opóźnieniem]. […] To błąd Google, czy nowa aktualizacja algorytmu?”

John odpowiedział: „W tym względzie po naszej stronie nie ma żadnego błędu. […] Po prostu nie indeksujemy całej treści , a niektóre strony internetowe generują dużo treści. A jeśli nie indeksujemy wszystkiego […], to może być OK. Ale może chcesz wszystko zindeksować, a nie możemy robić wszystkiego przez cały czas.

Trudna część […] polega na tym, że w przeszłości […] wiele stron internetowych nie było technicznie tak świetnych. Było trochę jaśniejsze, jakiego rodzaju treści nie zostały zindeksowane. W dzisiejszych czasach strony internetowe są technicznie w porządku i to […] jak pasek jakości jest trochę wyższy […]. Każdy może opublikować coś, co teoretycznie mogłoby zostać zindeksowane, ale […] musimy upewnić się, że indeksujemy właściwe rzeczy, które są rzeczywiście przydatne i istotne dla użytkowników. Dlatego czasami musimy pozostawić niektóre rzeczy niezindeksowane”.

Aktualizacja opinii o produktach — języki i kraje, których dotyczy problem

14:01 „Informacje o aktualizacji recenzji produktów. […] Nawet jeśli aktualizacja dotyczy tylko stron anglojęzycznych, zauważyłem również pewne ruchy w niemieckiej wyszukiwarce. Zastanawiałem się, czy ta aktualizacja recenzji produktów lub jakikolwiek inny efekt może mieć wpływ na strony internetowe w innych językach […]?”

Jak powiedział John: „ Moim zdaniem było to globalne i we wszystkich językach […]. Ale zwykle staramy się nakłonić zespół inżynierów do podjęcia decyzji w tej sprawie, abyśmy mogli odpowiednio udokumentować to w poście na blogu. Nie wiem, czy stało się to z aktualizacją recenzji produktów. […] Wygląda na to, że moglibyśmy robić coś w wielu językach i nie bylibyśmy związani tylko z angielskim. I nawet jeśli początkowo był to angielski, wydaje się, że jest to coś, co jest istotne na całym świecie i powinniśmy spróbować znaleźć sposoby, aby z czasem wprowadzić to również w innych językach. Nie dziwię się więc specjalnie, że widzisz zmiany w Niemczech […]”.

Dowiedziawszy się, że w poście na blogu Google wspomniano tylko o aktualizacji mającej wpływ na witryny w języku angielskim, John wyjaśnił dalej:

„Dzięki tego rodzaju aktualizacjom staramy się zacząć od jednego języka lub jednej lokalizacji i zobaczyć, co musimy poprawić, a następnie rozwijamy się stamtąd. […] W przypadku czegoś, co jest bardziej merytoryczne, zwykle trwa nieco dłużej, aby rozszerzyć się na inne języki […]”.

Lokalizowanie stron dla krajów anglojęzycznych

17:53 „Czy znasz inne sposoby na zlokalizowanie tego samego zestawu stron w różnych krajach anglojęzycznych? […] Mamy kilka subdomen z domeną najwyższego poziomu .jo, na przykład z subdomen z Australii, Nowej Zelandii i ustawiliśmy kraj w backendzie JSA, a także używamy hreflang na poziomie strony. […] Nie mogliśmy znaleźć innych sposobów, aby pomóc nam zlokalizować te subdomeny. Czy masz jakieś dobre metody lub sposoby, które możemy ulepszyć?”

Oto jak John omawiał ten temat:

„Myślę, że omówiłeś najważniejsze. To jest kierowanie geograficzne w Search Console i ustawieniach hreflang.

Geotargeting działa na poziomie podkatalogu lub subdomeny, zawiera wszystkie strony.

Hreflang jest na podstawie na stronie. Jeśli masz stronę główną dla jednego kraju i różne strony produktów dla tego samego kraju, każda z tych stron musi być powiązana z hreflang.

Inną rzeczą, którą zawsze staram się polecić, jest posiadanie pewnego rodzaju planu tworzenia kopii zapasowych, […] coś w rodzaju banera opartego na JavaScript, który można wyświetlić, gdy rozpoznasz, że użytkownik znajduje się na niewłaściwej wersji witryny. Na przykład, jeśli użytkownik z Australii trafi na stronę z Anglii, możesz wyświetlić baner JavaScript z napisem „Hej, mamy tutaj australijską wersję tej strony. Możesz tam iść bezpośrednio. Zaletą banera opartego na JavaScript jest to, że można go zablokować za pomocą pliku robots.txt, aby z punktu widzenia indeksowania się nie wyświetlał. A jeśli nie przekierujesz automatycznie, […] [wyszukiwarki] będą mogły niezależnie przetworzyć te dwie wersje.

Jeśli te strony są zasadniczo takie same, może się zdarzyć, że jedną z tych stron potraktujemy jako wersję kanoniczną. Na przykład, jeśli masz stronę dla Nowej Zelandii i Australii, a cała treść jest taka sama, jedyną nieznacznie inną rzeczą jest waluta na stronie, wtedy […] składamy te strony razem i wybieramy jedną z nich jako kanoniczny i użyj go jako podstawy wyszukiwania.

Jeśli masz hreflang, również na tych stronach będziemy nadal używać hreflang do wyświetlania właściwej wersji adresu URL. Ale zindeksowana treść będzie pochodzić tylko z wersji kanonicznej, a wszystkie raporty w Search Console będą dotyczyć wersji kanonicznej. To sprawia, że ​​czasami jest to trochę trudne, zwłaszcza jeśli masz większą witrynę internetową z […] tymi samymi treściami dla różnych krajów”.

Dodawanie dynamicznej zawartości do stron

25:0 „Moja witryna zawiera miliony stron, takich jak kategorie, podkategorie i produkty, e-commerce […]. Dodaliśmy dynamiczną treść, ponieważ [przy] milionach stron […] [trudno] dodać osobną treść lub […] unikalną treść na każdej stronie. Dodaliśmy […] zawartość opartą na szablonach na stronach kategorii, podkategorii i stronach produktów. […] Byłoby to dobre dla wydajności naszej strony internetowej, czy nie, czy też powinniśmy aktualizować zawartość dla każdej strony? […]”.

Oto odpowiedź Jana:

Dynamiczne dodawanie odpowiedniej treści do strony […] może mieć sens, ponieważ […] [to] zasadniczo polega na […] wyszukiwaniu bazy danych i dodawaniu treści na tej podstawie. […] To naprawdę zależy od tego, jak to zrobiłeś.

Najważniejszą rzeczą, której bym unikał, jest to, że wpadniesz w sytuację, w której sztucznie dodajesz treść do strony tylko w nadziei, że ta strona będzie miała lepszą pozycję w przypadku sztucznie dodanych słów kluczowych. […] Gdy użytkownicy tam wejdą, będą pytać „Dlaczego te losowe słowa kluczowe są na tej stronie?” […] Upewniając się, że rzeczywiście masz dobrą, odpowiednią treść dla tych kluczowych słów kluczowych, bardziej na tym bym się skupił […]”.

Zapytany dodatkowo, czy konieczne było napisanie odpowiedniej treści dla każdej strony, aby Google widział strony jako wartościowe, John odpowiedział:

„Na stronie powinno być coś, co jest istotne. A jeśli jest to strona kategorii, to produkty, które tam wymieniłeś, są bardzo trafne […] i zazwyczaj masz opis tej kategorii. […] Nie chodzi o to, że musisz napisać artykuł w Wikipedii na dole o wszystkich tych produktach i o tym, skąd pochodzą […], ale o trochę informacji, które są istotne dla strony, to ma znaczenie”.

Renderowanie i indeksowanie plików JavaScript

28:28 „Moja witryna […] [używa] Reaguj z renderowaniem po stronie klienta, […] kiedy wyłączamy JavaScript i przeglądarkę, moja strona jest całkowicie pusta. To może być przyczyną niższego rankingu, a może słabej wydajności strony internetowej?”

Odpowiedź Johna brzmiała: „ Nie powinno być. […] W przypadku wyszukiwania renderujemy i przetwarzamy JavaScript na stronach. Jeśli jest to widoczne w normalnej przeglądarce, a Ty nie robisz nic szczególnie złego, moglibyśmy normalnie indeksować te strony. Możesz dwukrotnie sprawdzić za pomocą narzędzia Sprawdź adres URL w Search Console, czy treść jest rzeczywiście widoczna, gdy Googlebot próbuje wyrenderować stronę, a jeśli treść jest widoczna, wszystko powinno być ustawione ”.

Indeksowanie adresów URL generowanych przez wyszukiwanie w witrynie

30:11 „Dodaliśmy już pole wyszukiwania w naszej witrynie , więc użytkownik wchodzi na naszą witrynę i szuka tam, i generuje unikalny adres URL dla każdego wyszukiwania. Te adresy URL powinny być indeksowane, czy nie ?”

Jak powiedział John: „ Zazwyczaj nie. […] Są ku temu dwa główne powody.

Z jednej strony bardzo łatwo jest znaleźć się w sytuacji, w której masz kolejny milion adresów URL, które są po prostu różnymi wyszukiwaniami, co nie zapewnia żadnej wartości. Nazywamy to przestrzenią nieskończoną […]. To jest coś, czego chcesz uniknąć.

Inną rzeczą, której chcesz uniknąć, jest to, że ludzie robią spam w polu wyszukiwania i starają się je zindeksować , co może przypominać wyszukiwanie ich numeru telefonu i […] rodzaj działalności […]. Nagle strona wyszukiwania Twojej witryny zajmuje pozycję w rankingu dla tego rodzaju działalności i pokazuje jej numer telefonu, nawet jeśli nie masz żadnych treści pasujących do tych zapytań, […] robią to, aby spróbować być widocznym w wynikach wyszukiwania. Zablokowałbym tego rodzaju strony wyszukiwania za pomocą robots.txt. W ten sposób możesz mieć pewność, że nie będziemy w stanie zindeksować żadnej treści”.

Witryny SEO jako YMYL

31:55 „Czy firma SEO zostałaby sklasyfikowana jako witryna Your Money lub Your Life , czy może jest powiązana tylko z witrynami z poradami medycznymi i finansowymi?”

Według Johna: „[…] Nie sądzę, aby witryny SEO były tak istotne dla życia ludzi. Oczywiście, jeśli pracujesz w firmie SEO, jesteś z tym związany, ale nie chodzi o to, że sama witryna jest witryną typu Twoje pieniądze lub Twoje życie. […] Nie każda strona internetowa, która coś sprzedaje, należy do tej kategorii.

Chciałbym tutaj polecić, zamiast ślepo próbować zobaczyć „Czy ten rodzaj witryny należy do tej konkretnej kategorii?”, […] przeczytaj, skąd pochodzi ta kategoria, a mianowicie Wytyczne dotyczące oceny jakości, i zrozum nieco więcej co Google próbuje zrobić ze zrozumieniem tych różnych typów witryn . […] To da ci trochę więcej informacji na temat tego, co się naprawdę dzieje […]”.

Wdrażanie uporządkowanych danych typu breadcrumb

39:56 „Jeśli chodzi o ustrukturyzowane dane okruszka, czy muszą one być dokładnie takie same, jak okruszki, które odwiedzający zobaczy na stronie? Czasami widzę na stronie skondensowaną wersję bułki tartej, podczas gdy dane strukturalne to pełna ścieżka bułki tartej. Czy obie opcje są do przyjęcia?”

Jak powiedział John: „[…] Staramy się rozpoznać, czy uporządkowane dane są widoczne na stronie, czy nie. A jeśli tak nie jest […], musimy się zastanowić „Czy nadal ma sens pokazywanie tego w wynikach wyszukiwania?

Jeśli robisz coś takiego, jak pokazywanie na stronie krótszej wersji okruszka, a nie możemy tego dopasować, może to być trochę chybione, jeśli rzeczywiście weźmiemy ten znacznik z okruszka i go użyjemy.

Jeśli bierzesz pojedyncze okruchy lub […] poszczególne pozycje z listy okruchów i pokazujesz tylko niektóre z nich, ale nie wszystkie, może to oznaczać, że po prostu je wybieramy. Możliwe, że nadal zbieramy resztę, ponieważ widzimy […] dużo zapałek z bułki tartej.

Nie ma gwarancji, że będziemy w stanie pobrać i wykorzystać pełne znaczniki nawigacyjne, które posiadasz, jeśli nie wyświetlasz ich na stronie , a to jest podobne do innych rodzajów danych strukturalnych.

Myślę, że głównym wyjątkiem […] jest […] znaczniki FAQ, gdzie masz pytania i odpowiedzi, gdzie […] ważne jest to, że pytanie jest rzeczywiście widoczne, a odpowiedź może być czymś w rodzaju zwiniętej sekcji na strona, ale […] przynajmniej musi być widoczna.”

Tłumaczenie tylko niektórych stron w witrynie

44:00 „Prowadzimy witrynę zawierającą mniej niż 300 stron indeksu, wszystkie w języku angielskim. Chcemy przetłumaczyć około połowy tych stron na język hiszpański, które zostaną umieszczone w podkatalogu w tej samej domenie, np. /ES, i oznaczone jako alternatywne wersje językowe treści w języku angielskim. Czy tłumaczenie tylko części treści strony jest w porządku, czy też powinniśmy przetłumaczyć wszystko, aby dokładnie odzwierciedlać angielską stronę internetową i mieć największe szanse na ranking w innych lokalizacjach?”

John powiedział: „ Możesz po prostu przetłumaczyć niektóre strony w witrynie internetowej. Na język stron patrzymy indywidualnie. Jeśli masz jakieś strony w języku hiszpańskim, po prostu patrzymy na te hiszpańskie strony, gdy ktoś szuka po hiszpańsku. Nie jest tak, że powiedzielibyśmy: „Jest tu o wiele więcej stron angielskich niż hiszpańskich. Dlatego strona hiszpańska jest mniej ważna”. […] To są strony po hiszpańsku i mogą się dobrze po hiszpańsku zaszeregować. […] Dla użytkowników czasem sensowne jest tłumaczenie jak największej ilości treści. Ale zwykle jest to coś, co stopniowo poprawiasz z czasem, gdzie zaczynasz od niektórych stron, dobrze je lokalizujesz i dodajesz więcej stron […].

Adnotacje hreflang są również na podstawie na stronie. Jeśli masz jakieś strony w języku angielskim i hiszpańskim i łączysz je, to w porządku. Jeśli masz jakieś strony tylko po hiszpańsku, to w porządku – nie potrzebujesz hreflanga. Niektóre strony są po prostu po angielsku, to też jest w porządku. Z tego punktu widzenia wydaje się to rozsądnym sposobem na rozpoczęcie”.

Budżet indeksowania i automatycznie generowane adresy URL

46:12 „Witryna, o której mówię, to witryna WordPress. Automatycznie generuje wiele niechcianych adresów URL. […] czy istnieje sposób, w jaki mogę zatrzymać robota, aby znaleźć te adresy URL? Wiem, że mogę to „nieindeksować”, a to nie są żadne zindeksowane adresy URL. Ale potem widzę je w Search Console w części Wykluczone. […] To serwis informacyjny, mamy tysiące adresów URL. […] Czy to wpłynie na budżet indeksowania?”

John zapytał o rozmiar strony i dowiedział się, że zawiera ona od 5 000 do 10 000 adresów URL.

Biorąc to pod uwagę, John powiedział: „ Nie martwię się o pełzający budżet. […] Tyle stron możemy zindeksować dość szybko, zwykle w ciągu kilku dni. Inna sprawa […] to „noindex” to metatag na stronie. Musimy zaindeksować stronę, aby zobaczyć metatag, co oznacza, że ​​nie można uniknąć sprawdzania stron „noindex”. […] Jeśli widzimy, że na stronie jest „noindex”, to zwykle z czasem indeksujemy te strony rzadziej. Nadal będziemy sprawdzać co jakiś czas dwa razy, ale nie będziemy sprawdzać tak często, jak normalna strona, która jest indeksowana w inny sposób. Innym podejściem jest użycie pliku robots.txt. Za pomocą pliku robots.txt możesz całkowicie zablokować indeksowanie tych stron. Wadą jest to, że czasami sam adres URL może być indeksowany w wynikach wyszukiwania, a nie treść na stronie […].”

Jan podał również następujący przykład:

„Jeśli […] masz witrynę z wiadomościami o piłce nożnej i masz artykuły, które są zablokowane i niektóre artykuły, które można indeksować, to jeśli ktoś szuka wiadomości o piłce nożnej, znajdzie indeksowalne wersje twoich stron i to nie ma znaczenia, że ​​istnieją inne strony blokowane przez plik robots.txt. Jeśli jednak ktoś wyraźnie wyśle ​​zapytanie do witryny dla tych zablokowanych stron, będziesz mógł zobaczyć te adresy URL w wyszukiwaniu […]. W takiej sytuacji jak twoja […] nie martwiłbym się o budżet indeksowania”.

John dodał również: „ Z praktycznego punktu widzenia zarówno 'noindex', jak i robots.txt byłyby odpowiednikiem. […] Ta treść prawdopodobnie nie pojawiłaby się w wynikach wyszukiwania, a i tak musielibyśmy ją zindeksować, gdyby pojawił się „noindex”, ale liczby są tak małe, że tak naprawdę nie mają znaczenia. Możemy nadal indeksować go adresem URL, jeśli jest blokowany przez robots.txt […]”.

Jeśli chodzi o preferowaną metodę, John powiedział: „Wybrałbym tę, która jest łatwiejsza do wdrożenia po Twojej stronie. Jeśli […] masz WordPressa i możesz po prostu mieć checkbox we wpisie, który mówi „Noindex tej strony”, może to najłatwiejsze podejście […].”

Indeksowanie adresów URL z parametrami

54:25 „W naszych plikach dziennika widzimy, a także udowadniamy, że to Googlebot za pośrednictwem IEP, dużo indeksowania od bota organicznego do adresów URL parametrów UTM, Google Display i uniwersalnych kampanii promujących aplikacje. […] Nie widzimy żadnych linków prowadzących z dowolnego miejsca do tych adresów URL. […] Czy masz pojęcie, gdzie lub dlaczego może się to dziać?”

John odpowiedział, że „Jedynym miejscem, w którym za pomocą Googlebota indeksujemy również strony, które podajesz w kampaniach reklamowych […], jest wyszukiwanie produktów. Jeśli masz skonfigurowany kanał wyszukiwania produktów lub kanał Merchant Center […], zindeksowalibyśmy te strony również dla Googlebota, aby upewnić się, że możemy je pobrać do Merchant Center. Jeśli masz tam otagowane adresy URL, […] zachowamy te otagowane adresy URL i przetworzymy je ponownie.

Może być też tak, że inne osoby są w stanie zgłaszać tego rodzaju produkty, […] niekoniecznie Ty je zgłaszasz, ale może ktoś, kto pracuje w Twoim imieniu lub też ma na to pozwolenie.

Jeśli znajdziemy gdzieś linki do tych stron, spróbujemy je zindeksować. Jeśli otagowałeś linki wewnętrzne w witrynie, nadal będziemy starać się to wychwycić i zindeksować. Jeśli masz elementy skonfigurowane w JavaScript, które być może masz gdzieś ustawione linki monitorujące z tymi parametrami, a kiedy przetwarzamy JavaScript, wygląda na to, że jest to link do tych linków monitorujących, możemy to również przetworzyć. […] Wydaje mi się, że to nie są pojedyncze przypadki […], ale raczej duża liczba tych adresów URL, a to bardzo przypomina stronę Merchant Center”.