TL;DR: BERT (Bidirectional Encoder Representations from Transformers) של גוגל, שהושק באוקטובר 2019, היה הצעד הגדול בהבנת שפה טבעית ב-search. היום הוא מהווה תשתית ל-MUM, ל-AI Overviews, ול-Gemini. הכותב המודרני חייב להבין את עקרונותיו.
מה BERT עושה
BERT מבין שפה בהקשר דו-כיווני. לפני BERT, גוגל הבינה שאילתה מילה-מילה, לא את המשמעות המלאה. BERT מסתכל על כל המילים בשאילתה ומבין את הקשר ביניהן.
דוגמה קלאסית:
Query: "can you get medicine for someone pharmacy"
לפני BERT: focus על "medicine pharmacy". הציג תוצאות רגילות לרכישת תרופות.
אחרי BERT: הבין ש-"for someone" חשוב. הציג תוצאות על רכישת תרופות עבור אדם אחר.
מה השתנה ל-SEO
1. Keyword stuffing מת
לפני BERT, חזרה של keyword בעמוד עזרה. אחרי BERT, הרבה keywords לא עוזרים. BERT מבין את המשמעות. פעם של מילת המפתח מספיקה.
2. Long-tail כוונה
BERT מבין queries ארוכות וספציפיות. "איך לתקן מ clumsy broke pandemic איך מחברת ים". BERT מנסה להבין.
3. Natural language
תוכן שכתוב בשפה טבעית (כאילו לאדם) מנצח תוכן שכתוב מכוון למילות מפתח.
4. Context matters
אותה מילה במקומות שונים משמעות שונה. BERT מבדיל.
BERT היום
ב-2019 BERT היה שני-שלישי מה-search queries. היום. כל ה-queries עוברים דרך משהו שמבוסס על BERT או שילוב של BERT + MUM + Gemini.
BERT הוא לא "update" שבוטל. הוא תשתית.
MUM. BERT's successor
2021. גוגל השיקה את MUM (Multitask Unified Model). 1000x חזק מ-BERT. עובד עם 75 שפות במקביל. מבין images + video + text (multimodal).
Gemini. המשך
2023. Gemini נוסף. הוא LLM מלא (לא רק encoder כמו BERT). תומך ב-AI Overviews.
מה זה אומר ל-SEO שלך
- כתוב natural. BERT מבין.
- פוקוס על intent, לא על keyword match.
- Long-tail queries חשובות.
- Context מעל כמות.
- Answer questions directly. BERT מזהה passage answers.