BERT, de nieuwste Google update

Op 25 oktober 2019 heeft Google een nieuwe update aangekondigd die zij de belangrijkste Google update van de laatste paar jaar noemen. Deze update genaamd BERT is van invloed op 10% van alle zoekopdrachten. Nadat BERT is uitgerold voor de Engelse taal, zijn er deze week meer dan 70 andere talen aan de beurt, waaronder Nederlands. Benieuwd je wat de invloed van BERT is op de zoekresultaten en hoe jouw SEO hiervan kan profiteren? Je leest het hier!

 

Wat is BERT?

BERT is een deep learning model. BERT staat voor Biderectional Encoder Representation from Transformers. Dit houdt in dat Google zoekopdrachten van gebruikers beter kan begrijpen dan voorheen. Hierdoor zorgt Google ervoor dat zij in de toekomst de meest relevante zoekopdrachten kunnen tonen voor hun gebruikers.

 

Wat Google vertelt over de BERT-update

De meeste impact zal volgens Google te zien zijn bij gecompliceerde zoekopdrachten die sterk afhankelijk zijn van de context van een zin. Dit is wat Google hierover te melden heeft: “These improvements are oriented around improving language understanding, particularly for more natural language/conversational queries, as BERT is able to help Search better understand the nuance and context of words in Searches and better match those queries with helpful results. Particularly for longer, more conversational queries, or searches where prepositions like “for” and “to” matter a lot to the meaning, Search will be able to understand the context of the words in your query. You can search in a way that feels natural for you.”

 

Hoe werkt het BERT-model?

Het BERT-model werkt als volgt: Google heeft het model vooraf getraind door gebruik te maken van Wikipedia en Book Corpus, een database van meer dan 10.000 boeken. BERT is voornamelijk getraind om Masked Language Modeling en Next Sentence Prediction taken secuurder uit te voeren voor zoekopdrachten.

 

BERT en Masked Language Modeling

Met Masked Language Modeling wordt een percentage van een zin bekeken in plaats van ieder woord in een zin apart. Simpel gezegd begrijpt Google de context van een zin beter doordat er naar zinnen in het geheel gekeken wordt in plaats van losse woorden.

 

Wat is Next Sentence Prediction bij BERT?

Met de Next Sentence Prediction taak kan Google de correlatie tussen verschillende zinnen beter begrijpen. Google is hierdoor in staat om synoniemen van woorden beter te herkennen en daarvoor de meest relevante zoekopdrachten te laten zien. Hieronder zie je een voorbeeld hoe het BERT-model er schematisch uit ziet.

 

BERT training data

 

Waarom is het tijd voor de BERT-update?

Het hoofddoel van Google is om op iedere vraag het meest relevante antwoord te geven. Om dit doel te bereiken is de BERT-update een grote stap in de goede richting. De update zorgt er namelijk voor dat de zoekmachine beter in staat is om zoekintentie te begrijpen, dat is in het volgende voorbeeld goed te zien.

 

BERT update voorbeeld

 

Voordat de update uitgerold werd lag de nadruk voornamelijk op de eerste woorden uit de zoekopdracht, in dit geval 2019 Brazil. Na de update is Google beter in staat om de complete zin te snappen, in bovenstaand voorbeeld dus een reiziger die een visa nodig heeft voor Amerika.

 

BERT en SEO

Om in 2020 je website zo goed mogelijk te optimaliseren zijn twee vragen belangrijk om te begrijpen. Waar gaat BERT de meeste invloed hebben? en hoe spelen we daar op in? We zien in de periode dat BERT is uitgerold vooral pagina’s waar informatieve content op staat beter ranken. Dit zijn bijvoorbeeld blogs en informatieve pagina’s. Dit geeft ons het inzicht dat Google informatieve zoekopdrachten beter kan begrijpen en hier relevante resultaten voor laat zien.

Danny Sullivan geeft op Twitter aan dat optimaliseren voor BERT niet nodig is. Het geheim is goede content schrijven, waarbij vooral de focus moet liggen op zoekwoordintentie in plaats van zoekwoorden. BERT zorgt er onder andere voor dat bepaalde zoekwoorden niet meer getweakt hoeven te worden en er écht killer content geschreven kan worden!

 

BERT Danny Sullivan tweet

 

Uitrol naar andere talen

Google heeft BERT uitgerold voor de Engelse taal en zoekopdrachten. En deze week heeft Google melding gemaakt dat BERT sinds kort ook voor 70 andere talen is uitgerold. Eén van deze talen is Nederlands, dus we zullen rekening moeten gaan houden met deze update. Hoewel de update nog maar net live is gegaan, merken we dat vooral informatieve content beter is gaan ranken in deze korte periode sinds de update. Omdat Google onderzoek blijft doen om gebruikers zo goed mogelijk te informeren bij het uitvoeren van zoekopdrachten verwachten wij dat er nog vele Google updates voor zoekintentie zullen volgen. Het begrijpen van taal blijft dan ook altijd één van de grootste uitdagingen voor Google.

Wouter Visser

Wouter Visser is sinds 2019 werkzaam als SEO consultant bij RIFF Online Marketing en maak onderdeel uit van het team Leadcom. Bedrijven organisch een boost geven door de juiste strategieën te hanteren is één van zijn vele SEO passies.

Is jouw website getroffen door de BERT-update?

Wil je meer weten over de BERT-update of hoe je content moet schrijven op basis van zoekintentie of andere SEO-zaken? Neem dan gerust contact met ons op, we helpen je graag met een analyse en een goede langetermijnstrategie.