BERT staat voor Bidirectional Encoder Representations from Transformers. Het is een AI-taalmodel dat Google ontwikkelde om zoekresultaten beter te begrijpen door context en betekenis van woorden in zinnen te analyseren.
Google BERT is een update uit 2019. Het analyseert woorden in context van de hele zin, niet alleen individueel.
Deze update helpt Google vooral beter begrijpen wat gebruikers werkelijk bedoelen bij een zoekopdracht. Door deze verandering in het algoritme is de zoekmachine beter in staat om relevante zoekresultaten te tonen. Waar eerst werd gekeken naar individuele keywords, begrijpt het na deze update ook de context van een hele zinnen.
Wat betekent de Google BERT update voor SEO?
Google BERT zorgt ervoor dat Google zoekopdrachten beter begrijpt door context en woordrelaties te analyseren. Voor SEO betekent dit dat content natuurlijk geschreven moet zijn en gericht op de zoekintentie, in plaats van exacte zoekwoorden. Focus op het beantwoorden van specifieke vragen en schrijf voor de lezer in plaats van zoekmachines.