SEO טכני

Robots.txt, המדריך המלא (2026)

Robots.txt הוא קובץ קריטי. שגיאה שם = אתר נעלם מגוגל. הנה הגדרה מלאה.

TL;DR: robots.txt file at site root tells crawlers which URLs to crawl/skip. Syntax: User-agent, Allow, Disallow, Sitemap. Common mistakes: blocking CSS/JS, wildcards misuse.

Basic Syntax

User-agent: *
Disallow: /admin/
Disallow: /private/
Allow: /admin/public/

Sitemap: https://example.com/sitemap.xml

Common Directives

  • User-agent: bot to apply rules to. * = all.
  • Disallow: paths to not crawl.
  • Allow: exceptions within Disallow.
  • Sitemap: location of sitemap.xml.
  • Crawl-delay: wait between requests (Googlebot ignores, Bingbot respects).

Specific Bots

  • Googlebot
  • Bingbot
  • Slurp (Yahoo)
  • DuckDuckBot
  • Baiduspider
  • GPTBot (OpenAI)
  • ClaudeBot (Anthropic)
  • CCBot (Common Crawl)

Common Use Cases

Block admin areas

Disallow: /wp-admin/

Block search results

Disallow: /?s=

Allow only Googlebot to crawl

User-agent: *
Disallow: /

User-agent: Googlebot
Allow: /

Critical Mistakes

  • Blocking /wp-content/. breaks images, CSS.
  • Blocking CSS/JS. Googlebot can't render.
  • Wildcards. limited support.
  • Case sensitivity. URLs are case-sensitive.

Testing

GSC → Settings → robots.txt Tester. Check URL behavior.

שמוליק דורינבאום

רוצה עזרה ממוקדת ל-SEO באתר שלך?

אני שמוליק דורינבאום — יועץ SEO ב-20+ שנות ניסיון. אם המאמר הזה נתן לך כיוון ואתה רוצה ליישם על האתר שלך, יש לי קורס קידום אתרים חינמי מלא, או שאפשר לקפוץ לשיחת ייעוץ אישית.

שאלות נפוצות

robots.txt חובה?
לא חובה, אבל best practice. אם לא קיים. Googlebot מניחה שהכל allowed.
Blocking AI bots, should I?
Depends. Blocks content from LLMs → less citations. Allows → free use of your content. Trade-off.
noindex vs Disallow?
Disallow = don't crawl. noindex = don't index (but crawl OK). Different.
Multiple sitemaps ok?
Yes. List each: Sitemap: URL1, Sitemap: URL2.
Case sensitive?
URLs yes. Directives (User-agent, Disallow) no.

יש לך שאלה על Robots.txt?

שלחו הודעה — אחזור תוך 24 שעות עם תשובה ממוקדת.