فایل Robots.txt چیست؟

فایل Robots.txt

فایل robots.txt یک فایل متنی ساده است که در ریشه وب‌سایت قرار می‌گیرد و به موتورهای جستجو (مانند گوگل، بینگ و یاهو) دستورالعمل‌هایی درباره چگونگی خزیدن (Crawling) و ایندکس کردن صفحات وب‌سایت ارائه می‌دهد. این فایل به موتورهای جستجو می‌گوید که کدام بخش‌های سایت را نباید خزیده یا ایندکس کنند و کدام بخش‌ها قابل خزیدن هستند.

نقش فایل robots.txt در سئو

فایل robots.txt به شما این امکان را می‌دهد تا:

  • جلوگیری از خزیدن صفحات خاص: اگر صفحاتی دارید که نمی‌خواهید موتورهای جستجو آن‌ها را خزیده و ایندکس کنند (مانند صفحات مدیریت، فایل‌های خصوصی یا صفحات آزمایشی)، می‌توانید آن‌ها را با استفاده از robots.txt مسدود کنید.
  • بهبود بودجه خزیدن (Crawl Budget): موتورهای جستجو زمان محدودی برای خزیدن وب‌سایت‌ها دارند. با استفاده از robots.txt می‌توانید موتورهای جستجو را به خزیدن صفحاتی که برای شما اهمیت دارند هدایت کنید و خزیدن صفحات بی‌ارزش یا غیرضروری را محدود کنید.
  • بهینه‌سازی منابع سرور: جلوگیری از خزیدن صفحات غیرضروری می‌تواند به کاهش بار سرور کمک کند.

سئو تکنیکال چیست

ساختار فایل robots.txt

یک فایل robots.txt از چندین دستورالعمل تشکیل شده است. هر دستورالعمل شامل دو بخش اصلی است:

  • User-agent: تعیین می‌کند که دستورالعمل‌ها برای کدام موتور جستجو اعمال می‌شوند. اگر می‌خواهید دستورالعمل‌ها برای همه موتورهای جستجو اعمال شوند، از علامت * (Wildcard) استفاده می‌کنید.
  • Disallow/Allow: این دستورها مشخص می‌کنند که کدام صفحات یا پوشه‌ها باید خزیده شوند (Allow) یا نباید خزیده شوند (Disallow).

مثال از یک فایل robots.txt ساده:

txt
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Allow: /wp-admin/admin-ajax.php

در این مثال:

  • User-agent: * به این معناست که این دستورالعمل‌ها برای همه موتورهای جستجو اعمال می‌شوند.
  • Disallow: /wp-admin/ و /wp-includes/، موتورهای جستجو را از خزیدن بخش مدیریت وردپرس و فایل‌های سیستمی منع می‌کند.
  • Allow: /wp-admin/admin-ajax.php، این بخش از فایل‌های سیستمی به دلیل اهمیت آن برای کارکرد صحیح سایت، اجازه خزیدن دارد.
  • فایل Robots.txt

نوشتن فایل robots.txt در وردپرس

برای ایجاد یا ویرایش فایل robots.txt در وردپرس، چند روش وجود دارد:

1. استفاده از افزونه Yoast SEO

اگر از افزونه Yoast SEO استفاده می‌کنید، این افزونه ابزارهایی را برای مدیریت فایل robots.txt به شما ارائه می‌دهد.

مراحل ویرایش یا ایجاد فایل robots.txt با استفاده از Yoast SEO:

  1. وارد پیشخوان وردپرس خود شوید.
  2. از منوی سمت راست، به SEO و سپس Tools بروید.
  3. بر روی File editor کلیک کنید.
  4. در بخش Robots.txt، فایل فعلی شما نمایش داده می‌شود. اگر فایل موجود نباشد، می‌توانید از همین بخش یک فایل robots.txt ایجاد کنید.
  5. پس از وارد کردن یا ویرایش دستورها، بر روی Save changes to robots.txt کلیک کنید تا فایل ذخیره شود.

2. ایجاد دستی فایل robots.txt از طریق cPanel یا FTP

اگر به پنل هاست خود دسترسی دارید، می‌توانید به‌صورت دستی فایل robots.txt را در ریشه وب‌سایت خود قرار دهید یا آن را ویرایش کنید.

مراحل ایجاد فایل robots.txt به‌صورت دستی:

  1. به هاست خود وارد شوید و از طریق cPanel یا FTP به فایل‌های وب‌سایت خود دسترسی پیدا کنید.
  2. به دایرکتوری ریشه وب‌سایت (معمولاً پوشه public_html) بروید.
  3. اگر فایل robots.txt در این پوشه موجود نیست، یک فایل جدید با نام robots.txt ایجاد کنید.
  4. فایل robots.txt را باز کرده و دستورهای موردنظر خود را وارد کنید.
  5. تغییرات را ذخیره کرده و فایل را آپلود کنید.

3. ایجاد فایل robots.txt با استفاده از افزونه‌های دیگر

اگر از افزونه Yoast SEO استفاده نمی‌کنید، می‌توانید از سایر افزونه‌های وردپرس مانند All in One SEO Pack یا Rank Math برای مدیریت فایل robots.txt استفاده کنید.

مثال‌هایی از فایل robots.txt در وردپرس

در ادامه چند مثال از فایل robots.txt برای وردپرس آمده است:

مثال 1: جلوگیری از خزیدن بخش‌های سیستمی وردپرس

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Allow: /wp-admin/admin-ajax.php

مثال 2: جلوگیری از خزیدن صفحات جستجو و صفحات آرشیو

User-agent: *
Disallow: /search/
Disallow: /category/
Disallow: /tag/

مثال 3: اجازه دادن به همه صفحات، به جز صفحات مدیریت

User-agent: *
Disallow: /wp-admin/
Allow: /

مثال 4: جلوگیری از خزیدن فایل‌های خاص (مثلاً PDF)

User-agent: *
Disallow: /*.pdf$

چگونه فایل robots.txt را بررسی کنیم؟

پس از ایجاد یا ویرایش فایل robots.txt، مهم است که آن را تست کنید تا مطمئن شوید که به‌درستی کار می‌کند. برای این کار می‌توانید از ابزارهای زیر استفاده کنید:

  • Google Search Console: در بخش Robots Testing Tool از Google Search Console می‌توانید فایل robots.txt سایت خود را بررسی کنید.
  • بررسی دستی: برای مشاهده فایل robots.txt سایت خود، به آدرس زیر بروید:
    //example.com/robots.txt

جایگزین “example.com” با دامنه وب‌سایت خود کنید.

نکات مهم در استفاده از فایل robots.txt

  • ایندکس شدن صفحات مهم را محدود نکنید: دقت کنید که صفحات مهم سایت شما (مثل صفحات محصولات یا مقالات) در فایل robots.txt مسدود نشوند.
  • بودجه خزیدن را بهینه کنید: با استفاده از robots.txt، می‌توانید موتورهای جستجو را به خزیدن در صفحات مهم سایت هدایت کنید و از خزیدن در صفحات غیرضروری جلوگیری کنید.
  • از خزیدن محتوای تکراری جلوگیری کنید: با جلوگیری از خزیدن صفحات تکراری (مانند صفحات دسته‌بندی‌ها و برچسب‌ها)، می‌توانید از مشکلات محتوای تکراری جلوگیری کنید.

نتیجه‌گیری

فایل robots.txt یک ابزار ساده اما قدرتمند برای کنترل نحوه خزیدن موتورهای جستجو در وب‌سایت شماست. با استفاده درست از این فایل، می‌توانید تجربه بهتری برای موتورهای جستجو و کاربران ایجاد کنید و سئو سایت خود را بهبود دهید.

Crawled – currently not indexed چیست و چطور در سرچ کنسول رفع می‌شود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *