Întrebări frecvente: Totul despre algoritmul BERT în căutarea Google

Publicat: 2020-11-19

Google a declarat că cea mai recentă actualizare majoră de căutare, includerea algoritmului BERT, îl va ajuta să înțeleagă mai bine intenția din spatele interogărilor de căutare ale utilizatorilor, ceea ce ar trebui să însemne rezultate mai relevante. Compania BERT va avea un impact de 10% din căutări, ceea ce înseamnă că este posibil să aibă un impact asupra vizibilității organice a mărcii dvs. și a traficului - este posibil să nu observați.

Acesta este aspectul nostru la nivel înalt la ceea ce știm până acum despre ceea ce Google promovează drept „unul dintre cele mai mari salturi înainte din istoria Căutării”. Când sunteți gata să mergeți mai adânc, consultați piesa noastră însoțitoare: O scufundare profundă în BERT: Cum BERT a lansat o rachetă în înțelegerea limbajului natural, de Dawn Anderson.

Când a fost lansat BERT în Căutarea Google?

BERT a început să fie lansat în sistemul de căutare Google în săptămâna 21 octombrie 2019 pentru interogări în limba engleză, inclusiv fragmente prezentate.

Algoritmul se va extinde la toate limbile în care Google oferă Căutare, dar nu există încă o cronologie stabilită, a spus Danny Sullivan de la Google. Un model BERT este, de asemenea, utilizat pentru a îmbunătăți fragmentele prezentate în două duzini de țări.

Ce este BERT?

BERT, care reprezintă reprezentările codificatorului bidirecțional de la transformatoare, este o tehnică bazată pe rețea neuronală pentru prelucrarea prealabilă a limbajului natural. În engleză simplă, poate fi folosit pentru a ajuta Google să discearnă mai bine contextul cuvintelor din interogările de căutare.

De exemplu, în expresiile „nouă până la cinci” și „un sfert până la cinci”, cuvântul „către” are două semnificații diferite, care pot fi evidente pentru oameni, dar mai puțin pentru motoarele de căutare. BERT este conceput pentru a distinge între astfel de nuanțe pentru a facilita rezultate mai relevante.

Google open source BERT în noiembrie 2018. Aceasta înseamnă că oricine poate folosi BERT pentru a-și instrui propriul sistem de procesare a limbii pentru răspunsuri la întrebări sau alte sarcini.

Ce este o rețea neuronală?

Rețelele neuronale de algoritmi sunt concepute pentru recunoașterea tiparelor, pentru a o pune foarte simplu. Categorizarea conținutului imaginii, recunoașterea scrierii de mână și chiar prezicerea tendințelor pe piețele financiare sunt aplicații comune din lumea reală pentru rețelele neuronale - fără a menționa aplicațiile de căutare, cum ar fi modelele de clicuri.

Se antrenează pe seturi de date pentru a recunoaște tiparele. BERT pre-instruit folosind corpusul de text simplu al Wikipedia, a explicat Google când l-a deschis.

Ce este procesarea limbajului natural?

Procesarea limbajului natural (NLP) se referă la o ramură a inteligenței artificiale care se ocupă de lingvistică, cu scopul de a permite computerelor să înțeleagă modul în care oamenii comunică în mod natural.

Exemple de progrese făcute posibile de NLP includ instrumente de ascultare socială, chatbots și sugestii de cuvinte pe smartphone.

În sine, NLP nu este o caracteristică nouă pentru motoarele de căutare. Cu toate acestea, BERT reprezintă un progres în NLP prin formare bidirecțională (mai multe despre cele de mai jos).

Cum funcționează BERT?

Descoperirea BERT constă în capacitatea sa de a instrui modele de limbă bazate pe întregul set de cuvinte dintr-o propoziție sau într-o interogare (formare bidirecțională), mai degrabă decât modul tradițional de formare pe secvența ordonată de cuvinte (de la stânga la dreapta sau stânga combinată -la dreapta și de la dreapta la stânga). BERT permite modelului de limbă să învețe contextul cuvintelor pe baza cuvintelor înconjurătoare, mai degrabă decât doar cuvântul care îl precedă sau îl urmează imediat.

Google numește BERT „profund bidirecțional”, deoarece reprezentările contextuale ale cuvintelor încep „chiar din partea de jos a unei rețele neuronale profunde”.

„De exemplu, cuvântul„ bancă ”ar avea aceeași reprezentare fără context în„ cont bancar ”și„ malul râului ”. „Modelele contextuale generează în schimb o reprezentare a fiecărui cuvânt care se bazează pe celelalte cuvinte din propoziție. De exemplu, în propoziția „Am accesat contul bancar,“ un model de context unidirecțional ar reprezenta „bancă“ , bazată pe „am accesat“ , dar nu „cont“. Cu toate acestea, BERT reprezintă „ bancă ” utilizând atât contextul anterior, cât și contextul următor - „ Am accesat contul …” ”

Google a arătat câteva exemple despre modul în care aplicația BERT în Căutare poate avea impact asupra rezultatelor. Într-un exemplu, interogarea „cărți de practică matematică pentru adulți” a apărut anterior pe o listă pentru o carte pentru clasele 6-8, în partea de sus a rezultatelor organice. Cu BERT aplicat, Google afișează o listă pentru o carte intitulată „Matematică pentru adulți” în partea de sus a rezultatelor.

BERT_book_example
Sursa imaginii: Google.

Puteți vedea într-un rezultat actual pentru această interogare că cartea pentru clasele 6-8 este încă clasată, dar există două cărți destinate în mod special adulților care se află acum deasupra acesteia, inclusiv în fragmentul prezentat.

google_serp_example

O modificare a rezultatului căutării, precum cea de mai sus, reflectă noua înțelegere a interogării folosind BERT. Conținutul pentru tineri nu este penalizat, mai degrabă listele specifice adulților sunt considerate mai bine aliniate cu intenția căutătorului.

Utilizează Google BERT pentru a înțelege toate căutările?

Nu, nu exact. BERT va îmbunătăți înțelegerea Google despre aproximativ una din 10 căutări în limba engleză în SUA

„În special pentru interogări mai lungi și mai conversaționale sau căutări în care prepozițiile precum„ pentru ”și„ să ”contează foarte mult pentru semnificație, Căutarea va putea înțelege contextul cuvintelor din interogarea dvs.”, a scris Google în postarea sa de pe blog .

Cu toate acestea, nu toate interogările sunt conversaționale sau includ prepoziții. Căutările de marcă și frazele mai scurte sunt doar două exemple de tipuri de interogări care pot să nu necesite procesarea limbajului natural al BERT.

Cum va avea impact BERT fragmentele mele prezentate?

După cum am văzut în exemplul de mai sus, BERT poate afecta rezultatele care apar în fragmentele prezentate atunci când este aplicat.

Într-un alt exemplu de mai jos, Google compară fragmentele prezentate pentru interogarea „parcarea pe un deal fără bordură”, explicând: „În trecut, o astfel de interogare ne-ar confunda sistemele - am acordat prea multă importanță cuvântului„ bordură ” și a ignorat cuvântul „nu”, neînțelegând cât de critic a fost acel cuvânt pentru a răspunde în mod adecvat la această interogare. Așa că am returna rezultate pentru parcarea pe un deal cu bordură. ”

Sursa imaginii: Google.

Care este diferența dintre BERT și RankBrain?

Unele dintre capabilitățile BERT ar putea suna similar cu prima metodă de inteligență artificială Google pentru înțelegerea interogărilor, RankBrain. Dar sunt doi algoritmi separați care pot fi folosiți pentru a informa rezultatele căutării.

„Primul lucru de înțeles despre RankBrain este că rulează în paralel cu algoritmii normali de clasificare a căutării organice și este folosit pentru a face ajustări la rezultatele calculate de acei algoritmi”, a spus Eric Enge, director general la Perficient Digital.

RankBrain ajustează rezultatele examinând interogarea curentă și găsind interogări similare din trecut. Apoi, analizează performanța rezultatelor căutării pentru acele interogări istorice. „Pe baza a ceea ce vede, RankBrain poate ajusta rezultatele rezultatelor algoritmilor normali de clasificare a căutării organice”, a spus Enge.

De asemenea, RankBrain ajută Google să interpreteze interogările de căutare, astfel încât să poată afișa rezultate care pot să nu conțină cuvintele exacte din interogare. În exemplul de mai jos, Google a reușit să-și dea seama că utilizatorul căuta informații despre Turnul Eiffel, în ciuda faptului că numele turnului nu apare în interogarea „înălțimea punctului de reper din Paris”.

google_serp_eiffel_tower

„BERT funcționează într-o manieră complet diferită”, a spus Enge. „Algoritmii tradiționali încearcă să se uite la conținutul unei pagini pentru a înțelege despre ce este vorba și pentru ce poate fi relevant. Cu toate acestea, algoritmii tradiționali NLP sunt de obicei capabili să privească conținutul înainte de un cuvânt SAU conținutul după un cuvânt pentru un context suplimentar pentru a-l ajuta să înțeleagă mai bine semnificația acelui cuvânt. Componenta bidirecțională a BERT este ceea ce o face diferită. ” După cum sa menționat mai sus, BERT analizează conținutul înainte și după un cuvânt pentru a-și informa înțelegerea cu privire la semnificația și relevanța acelui cuvânt. „Aceasta este o îmbunătățire critică în procesarea limbajului natural, deoarece comunicarea umană este în mod natural stratificată și complexă.”

Atât BERT, cât și RankBrain sunt utilizate de Google pentru a procesa interogări și conținut de pagină web pentru a înțelege mai bine ce înseamnă cuvintele.

BERT nu este aici pentru a înlocui RankBrain. Google poate folosi mai multe metode pentru a înțelege o interogare, ceea ce înseamnă că BERT ar putea fi aplicat singur, alături de alți algoritmi Google, în tandem cu RankBrain, orice combinație a acestora sau deloc, în funcție de termenul de căutare.

Ce alte produse Google ar putea afecta BERT?

Anunțul Google pentru BERT se referă numai la Căutare, cu toate acestea, va avea un impact și asupra Asistentului. Atunci când interogările efectuate pe Asistentul Google îl declanșează pentru a furniza fragmente prezentate sau rezultate web din Căutare, aceste rezultate pot fi influențate de BERT.

Google a spus Search Engine Land că BERT nu este utilizat în prezent pentru reclame, dar dacă se va integra în viitor, poate ajuta la ameliorarea unora dintre variantele apropiate rele care îi afectează pe agenții de publicitate.

„Cum pot optimiza pentru BERT?” Nu este chiar modul în care să te gândești la asta

„Nu este nimic de optimizat cu BERT și nici ceva pentru cineva care să se regândească”, a spus Sullivan. „Elementele fundamentale ale căutării noastre de a recompensa conținut excelent rămân neschimbate.”

Sfaturile Google cu privire la o clasare bună au fost în mod constant să țină cont de utilizator și să creeze conținut care să le satisfacă intenția de căutare. Întrucât BERT este conceput pentru a interpreta această intenție, este logic că oferirea utilizatorului a ceea ce dorește este în continuare un sfat de la Google.

„Optimizarea” înseamnă acum că vă puteți concentra mai mult pe o scriere bună și clară, în loc să faceți compromisuri între crearea de conținut pentru publicul dvs. și construcția de expresie liniară pentru mașini.

Doriți să aflați mai multe despre BERT?

Iată acoperirea noastră suplimentară și alte resurse pe BERT.

  • O scufundare profundă în BERT: Cum BERT a lansat o rachetă în înțelegerea limbajului natural
  • De ce este posibil să nu fi observat actualizarea Google BERT
  • Bine ați venit BERT: cel mai recent algoritm de căutare Google pentru a înțelege mai bine limbajul natural
  • Înțelegerea căutărilor mai bine ca oricând - Blogul cuvintelor cheie Google
  • Open Sourcing BERT: Pregătire de ultimă generație pentru prelucrarea limbajului natural - Google AI Blog
  • BERT pentru răspuns la întrebări începând cu HotpotQA - Github
  • Lucrarea de cercetare care introduce BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding - Cornell University