Co to jest BERT?

BERT (Bidirectional Encoder Representations from Transformers) to model AI Google wdrożony w 2019 roku, który zrewolucjonizował sposób, w jaki wyszukiwarka rozumie kontekst i znaczenie słów w zapytaniach.

Przed BERT: Google analizował słowa w zapytaniu niezależnie od siebie.

Po BERT: Google rozumie relacje między słowami i ich kontekst. Słynny przykład Google: zapytanie „2019 Brazil traveler to usa need a visa” – przed BERT Google nie rozumiał, że chodzi o podróżnika z Brazylii, nie do Brazylii.

Jak BERT działa: „bidirectional” oznacza, że model czyta tekst w obu kierunkach – od lewej do prawej i od prawej do lewej – dzięki czemu rozumie pełny kontekst każdego słowa. Słowo „zamek” w „zamek w drzwiach” vs „zamek królewski” ma inne znaczenie – BERT to rozumie.

Wpływ na SEO:

  • BERT wpłynął na ok. 10% zapytań w Google
  • long-tail queries i konwersacyjne zapytania zyskały na precyzji
  • pisanie naturalnym językiem stało się ważniejsze niż keyword stuffing
  • przyimki i kontekstowe słowa (do, z, bez, mimo) mają znaczenie.

Nie da się „optymalizować pod BERT” w tradycyjnym sensie. BERT to system rozumienia języka – optymalizujesz pod niego pisząc naturalnie, jasno i precyzyjnie. Jeśli Twoja treść dobrze odpowiada na pytanie użytkownika, BERT Ci pomaga. Jeśli jest niejasna lub manipulacyjna, BERT to wyłapie.


← Powrót do słownika SEO


Szukasz konsultanta SEO dla firm SaaS i B2B? Zobacz, jak mogę pomóc Twojej firmie rosnąć dzięki SEO.

Przewijanie do góry