Buget Google Crawl pentru SEO, STOP Ghiciți! (Informații reale aici)
Publicat: 2021-07-13Dacă doriți ca paginile de pe site-ul dvs. să fie indexate rapid, atunci trebuie să înțelegeți semnificația bugetului de accesare cu crawlere pentru SEO.
Realizează efectiv toate site-urile mari și mici. Însă, adesea, site-urile mari, site-urile cu erori tehnice sau site-urile cu caracteristici unice de generare a adreselor URL trebuie să acorde atenție aici.
Dar asteapta!
Mă depășesc. Să începem puțin mai încet.

Tot ce trebuie să știți despre un buget de accesare cu crawlere pentru SEO
Conceptul de buget cu crawl a fost odată un joc de ghicire printre SEO. Cu toate acestea, datorită unei postări recente a lui Gary Illyes de la Google, acum suntem cu toții mult mai informați.
În acest articol, vom acoperi tot ce trebuie să știți despre un buget de accesare cu crawlere și vă vom oferi câteva sfaturi de optimizare.
Ce este un buget de accesare cu crawlere?
Înainte de a putea înțelege conceptul de buget cu crawlere pentru SEO, va trebui mai întâi să vă familiarizați cu un alt termen: Googlebot.
Googlebot este numele dat agentului automat care se târăște în jurul site-ului dvs. în căutarea de pagini pe care să le adauge la indexul său. Poți să te gândești la asta ca la un surfer web digital.
Deoarece există miliarde și miliarde de pagini pe web, nu ar fi practic ca Googlebot să le acceseze cu crawlere în fiecare secundă din fiecare zi. Dacă faceți acest lucru, veți consuma o lățime de bandă valoroasă online, având ca rezultat site-uri web cu performanță mai lentă.
Astfel, Google alocă un buget de accesare cu crawlere pentru fiecare site web. Acest buget determină cât de des Google coboară cu crawlere site-ul în căutarea paginilor de indexat.
Google definește misiunea bugetului pentru accesarea cu crawlere după cum urmează: „Prioritizarea a ceea ce trebuie accesat cu crawlere, când și cât de multă resursă poate aloca serverul care găzduiește site-ul web cu crawlere este mai importantă pentru site-urile web mai mari sau pentru cele care generează automat pagini pe baza parametrilor URL. , de exemplu."
De ce este importantă optimizarea bugetului cu crawlere pentru SEO?
Răspunsul la acest lucru este fundamental și simplu. Cu cât un buget de accesare cu crawlere este optimizat pentru a indexa o pagină, cu atât va fi mai mare pe Google.
Este crucial să vă asigurați că, dacă aveți un site mare, în special eCommerce, sau ați adăugat o mulțime de pagini sau aveți o mulțime de pagini redirecționate, aveți capacitatea bugetului de accesare cu crawlere pentru a le gestiona.
Cu toate acestea, aceasta nu ar trebui să fie o preocupare uriașă, deoarece Google accesează cu crawlere paginile indexate în mod eficient, dar este cu siguranță ceva de care trebuie să știți.
Limita ratei de accesare cu crawlere
Limita ratei de accesare cu crawlere este puțin diferită de bugetul de accesare cu crawlere. Acesta definește câte conexiuni simultane utilizează Googlebot pentru a accesa cu crawlere un site și timpul pe care îl va aștepta înainte de a prelua o altă pagină.
Amintiți-vă, Google se referă la experiența utilizatorului. Motivul pentru care botul său folosește o limită a ratei de accesare cu crawlere este acela de a împiedica depășirea unui site de către agenții automatizați în așa măsură încât utilizatorii umani au probleme la încărcarea site-ului în browserele lor.
Iată câțiva factori care afectează rata de accesare cu crawlere:
- Viteza site-ului web - Dacă un site răspunde rapid la Googlebot, atunci Google va crește rata limită de accesare cu crawlere. Pe de altă parte, Google va reduce rata de accesare cu crawlere pentru site-urile lent.
- Setarea în Search Console - webmasterii pot seta, de asemenea, limita de accesare cu crawlere în Search Console. Deși nu pot crește rata de accesare cu crawlere, o pot reduce dacă consideră că Google face prea multe accesări cu crawlere pe serverul lor.
Rețineți că, deși o rată de accesare cu crawlere sănătoasă ar putea face ca paginile să fie indexate mai rapid, o rată de accesare cu crawlere mai mare nu este un factor de clasare.
Cerere de accesare cu crawlere - Buget de accesare cu crawlere pentru SEO
Chiar dacă limita de accesare cu crawlere nu este atinsă, Google ar putea reduce numărul de pagini pe care le accesează robotul cu crawlere. Activitatea scăzută din bot se numește o reducere a cererii de accesare cu crawlere.
Ce afectează cererea de accesare cu crawlere? Există câteva lucruri:
- Popularitate - Paginile care sunt mai populare (adică sunt partajate mult pe rețelele de socializare și primesc linkuri de pe alte site-uri web) tind să fie accesate cu crawlere mai des.
- Staleness - Google încearcă să împiedice URL-urile să devină stale în indexul său.
De asemenea, evenimentele la nivel de site (cum ar fi o mutare de site) ar putea duce la o creștere a cererii de accesare cu crawlere. Asta pentru că Google trebuie să reindexeze conținutul cu noile adrese URL.
Ce afectează bugetul de accesare cu crawlere? - Buget cu crawlere pentru SEO
Practic, bugetul pentru accesarea cu crawlere este o combinație între rata de accesare cu crawlere și cererea de accesare cu crawlere. Potrivit lui Illyes, bugetul pentru accesarea cu crawlere este numărul de adrese URL pe care Googlebot le poate și dorește să le acceseze cu crawlere.
Din fericire, Google a identificat exact ce factori afectează bugetul de accesare cu crawlere. Iată o listă a acestora, clasificate în ordinea importanței:
- Parametri URL - este adesea cazul în care o adresă URL de bază (de exemplu, „http://mysite.com”) adăugată cu parametri (de exemplu, „http://mysite.com?id=3”) returnează exact același lucru pagină. Acest tip de configurare ar putea avea ca rezultat numeroase adrese URL unice care vor fi luate în considerare pentru bugetul de accesare cu crawlere, chiar dacă toate acele adrese URL returnează aceeași pagină.
- Conținut duplicat - În unele cazuri, adresele URL pot fi complet unice fără parametri de solicitare și totuși returnează același conținut. Acest lucru va afecta negativ și bugetul de accesare cu crawlere.
- Pagini de eroare ușoare - Paginile de eroare Soft 404 au, de asemenea, un impact asupra bugetului de accesare cu crawlere. Din fericire, acestea sunt raportate și în Search Console.
- Pagini piratate - Site-urile care au fost victimizate de hackeri își pot vedea bugetul de accesare cu crawlere limitat.
- Spații infinite - Site-urile care au linkuri nelimitate (cum ar fi calendarele în care utilizatorii pot face clic pe o zi, lună sau an) vor descoperi că Googlebot își risipește bugetul de accesare cu crawlere pe linkuri care ar putea fi neimportante.
- Conținut de calitate scăzută - Dacă site-ul suferă de o calitate slabă, este probabil ca Google să limiteze bugetul de accesare cu crawlere.
Cum să vă optimizați bugetul de accesare cu crawlere
Acum, că sunteți familiarizat cu conceptul de buget de accesare cu crawlere pentru SEO, este timpul să vă optimizați site-ul în consecință. Iată câteva modalități de a face exact acest lucru.

1. Utilizați Instrumente gratuite
- Atât Google Search Console, cât și Bing Webmaster Tools vă oferă o mulțime de informații despre probleme care ar putea afecta negativ bugetul dvs. de accesare cu crawlere. Asigurați-vă că le folosiți și le configurați pentru toate site-urile pe care le monitorizați.
Apoi, reveniți din când în când cu aceste instrumente pentru a vedea dacă site-urile dvs. întâmpină probleme. De exemplu, dacă Search Console raportează că unul dintre site-urile dvs. are unele erori soft 404, asigurați-vă că remediați problema imediat.
Amintiți-vă, atât Google, cât și Microsoft vor să aveți succes online. De aceea oferă aceste instrumente gratuit.
2. Asigurați-vă că paginile dvs. pot fi accesate cu crawlere
- Este tentant să profitați de minunile tehnologiei moderne într-o asemenea măsură încât să îngreunați Googlebot să vă acceseze cu crawlere site-ul. Rezistați acestei ispite.
De exemplu, tehnologie precum AJAX (Asynchronous JavaScript și XML) încarcă conținut, astfel încât utilizatorii să nu trebuiască să actualizeze pagina. Cu toate acestea, conținutul încărcat de AJAX ar putea să nu fie accesibil de Googlebot. Acesta este un subiect important care spamează dincolo de modificările SEO crawl, așa că îl vom salva pentru o altă postare. Dar, practic, trebuie să aveți o bază HTML.
De asemenea, utilizați un sitemap și asigurați-vă că este întotdeauna actualizat. Din fericire, sistemele de gestionare a conținutului precum WordPress facilitează acest lucru.
3. Limită Redirecționări
- De fiecare dată când una dintre paginile de pe site-ul dvs. redirecționează către o altă pagină (cu o redirecționare 301 sau 302), utilizează o mică parte din bugetul dvs. de accesare cu crawlere. Asta înseamnă că, dacă aveți o mulțime de redirecționări, bugetul dvs. de accesare cu crawlere s-ar putea epuiza înainte ca Googlebot să acceseze cu crawlere pagina pe care doriți să o indexați.
4. Eliminați legăturile rupte
- Dacă aveți o mulțime de linkuri rupte pe site-ul dvs., va trebui să le curățați dacă doriți să vă maximizați bugetul de accesare cu crawlere.
Din fericire, este ușor să găsiți legături rupte cu un instrument precum Screaming Frog. De asemenea, asigurați-vă că verificați din când în când cu Google Search Console și Bing Webmaster Tools.
5. Evitați utilizarea parametrilor URL
- După cum am văzut, puteți consuma o parte semnificativă din bugetul dvs. de accesare cu crawlere cu parametri URL diferiți care indică înapoi aceeași pagină. Puteți elimina această problemă, desigur, eliminând complet parametrii URL.
De exemplu, dacă rulați un site de comerț electronic, puteți utiliza următoarea adresă URL pentru a afișa un anumit produs: http://mysite.com/shop?productId=5. În schimb, schimbați adresa URL respectivă la http://mysite.com/shop/productId5, deci așa ceva. Procedând astfel, veți elimina cel puțin un parametru de solicitare.
Dacă trebuie să utilizați parametrii de solicitare, asigurați-vă că îi spuneți Google cum să gestioneze acești parametri în Search Console. Doar faceți clic pe „Crawl” în bara laterală din stânga și selectați „Parametri URL” din meniul care apare. Pe pagina respectivă, puteți să vă editați sugestiile și să adăugați parametri noi, astfel încât Google să nu indexeze paginile duplicate. Acest lucru vă va schimba bugetul de accesare cu crawlere pentru SEO. Dar fii foarte atent aici, parametrul greșit îți poate distruge site-ul.
6. Utilizați conexiunea internă
- Este, fără îndoială, cazul în care unul dintre cele mai ignorate aspecte ale SEO de astăzi este legătura internă. Rețineți, totuși, că este cel mai bine să vă conectați intern la cele mai profitabile pagini. În acest fel, Googlebot va vedea acele pagini mai frecvent.
7. Utilizați conexiunea externă
- Un studiu recent arată că există o corelație între linkurile externe și de câte ori Googlebot accesează cu crawlere un site. De aceea, este important să obțineți linkuri externe către site-ul dvs.
Este dincolo de sfera de aplicare a acestui articol să mergeți în toate modalitățile prin care puteți crea legături externe. Vizualizați această listă cuprinzătoare de strategii de backlinking pentru mai multe informații.
8. Îmbunătățiți viteza serverului
- Este important să faceți câteva cercetări înainte de vânzare înainte de a selecta un furnizor de găzduire. Asta pentru că doriți o gazdă care să răspundă foarte rapid la solicitările serverului.
Cu cât serverul dvs. răspunde mai repede la o solicitare de pagină, cu atât mai multe pagini vor fi accesate cu crawlere de Googlebot.
9. Ascundeți în cache paginile dvs.
- Vorbind de viteză, este o idee foarte bună să vă cacheți paginile web. Acestea se vor încărca mai repede nu numai pentru utilizatori, ci și pentru Googlebot, oferind site-ului dvs. un spor în limita ratei de accesare cu crawlere.
Din fericire, este ușor să cacheți paginile pe o platformă WordPress cu pluginul W3 Total Cache sau pluginul Super Cache.
10. Optimizați viteza de încărcare a paginii
- După ce ați plasat site-ul pe un server rapid și ați păstrat în cache paginile dvs., este posibil să nu fiți terminat cu optimizarea vitezei. Accesați instrumentul PageSpeed Insights și vedeți ce crede Google despre viteza paginii dvs.
S-ar putea să constatați că există încă câteva probleme pe site-ul dvs. care împiedică încărcarea paginilor dvs. cât mai repede posibil. De exemplu, este posibil să aveți JavaScript sau CSS care blochează redarea pe paginile dvs.
Din fericire, Google nu numai că vă spune ce este în neregulă cu site-ul dvs., ci și cum să remediați problemele identificate.
Împachetarea bugetului de accesare cu crawlere pentru SEO
Acum știți puțin mai multe despre bugetele pentru accesarea cu crawlere, optimizarea motoarelor de căutare și modul în care aceasta vă afectează site-ul.
De ce să nu luați ceva timp astăzi pentru a pune în aplicare un plan de acțiune pentru optimizarea bugetului dvs. de accesare cu crawlere? Acest lucru poate fi foarte util pentru site-urile web mari și duce adesea la rezolvarea multor alte probleme în afara accesării cu crawlere.