فایل robots.txt و نحوه ساخت آن

آموزش ساخت و تست فایل robots.txt

فایل robots.txt چیست
فایل robots.txt چیست

فایل روبوت robots.txt چیست؟ نحوه ساخت فایل robots.txt چگونه است؟ بهترین و مناسب ترین فایل روبوت برای وردپرس و جوملا چیست؟ پاسخ به همه این پرسش‌ها را می‌توانید در این مقاله از سایت میزفا مطالعه نمایید. همچنین در این مقاله ۸ مثال کاربردی درباره فایل روبوت (ربات) گفته شده است. همراه باشید.

فایل robots.txt چیست

فایل robots.txt یک فایل متنی است که به‌وسیله آن خط‌مشی برای ربات موتورهای جستجو تعیین می‌کنیم که چه آدرس‌هایی را خزش و ایندکس کنند و چه آدرس‌هایی را خزش و ایندکس نکنند. توجه داشته باشید که ماهیت خزش با ایندکس فرق دارد. یک ربات باید در ابتدا خزشی را صورت بدهد و سپس تصمیم می‌گیرد که آن را در دیتابیس موتورهای جستجو ذخیره کند یا نه. اگر ذخیره شود عمل ایندکس رخ‌داده است. ما در این مقاله از سایت میزفا به نحوه ایجاد و ساخت فایل robots.txt می‌پردازیم و شما با خواندن این مقاله صرف نظر از اینکه چه نوع CMS (وردپرس، جوملا و …) دارید، می‌توانید این فایل را ایجاد و مدیریت کنید.
موتورهای جستجو با خزیدن در میان صفحات سایت شما، آن‌ها را ایندکس می‌کند و با دنبال کردن لینک‌ها وارد صفحات یا سایت‌های دیگر می‌شوند. هر ربات استانداردی قبل از خزیدن صفحه‌ای از یک دامنه، ابتدا فایل robots.txt را می‌خواند و بر اساس دستورات موجود در این فایل، اجازه خزیدن را پیدا می‌کند تا بتواند ایندکس را انجام دهد. پس باید دقت داشته باشید که چه صفحاتی را برای خزیدن منع می‌کنید چراکه اگر به‌اشتباه صفحات مهم خود را مخصوصاً صفحات فرود یا همان لندینگ پیج را از طریق این فایل برای ربات‌ها مسدود کنید ضربه بدی به سئو سایت و درنتیجه تجارت آنلاین خود وارد می‌کنید. (اهمیت و نحوه ساختن صفحات فرود یا لندینگ پیج را می‌توانید به همراه مثال در مقاله جامع صفحه فرود چیست بخوانید)
فایل robots.txt مختص ربات‌ها است اما جالب است بدانید که چنین فایلی برای انسان‌ها هم نوشته می‌شود. این فایل humans.txt نام دارد و حاوی پیامی برای کاربران و بازدیدکنندگان سایت شما است و اصولاً به زبان انگلیسی نوشته می‌شود.
نمونه فایل robots.txt و فایل humans.txt برای سایت گوگل:

https://www.google.com/robots.txt

https://www.google.com/humans.txt

فایل robots.txt یا متاتگ روبات

اگر می‌خواهید آدرسی از صفحات و لینک‌های آن توسط روبات بررسی شود اما در نتایج جستجو نمایش داده نشود، درنتیجه باید بجای فایل robots.txt از متاتگ ربات استفاده کنید. اگر قصد دارید این روش را به شکل بهینه انجام دهید مقاله متاتگ robots ما را حتماً بخوانید تا به نکات جالبی درباره این متاتگ دست پیدا کنید.

فایل robots.txt باید در چه آدرسی قرار دهیم؟

بعد از ساخت فایل robots.txt با فرمت ASCII یا UTF-8 این فایل حتماً در آدرس http://domain.com/robots.txt مورد دسترسی ربات‌ها قرار گیرد (بجای domain.com نام دامنه سایت خود را قرار دهید). حال دو نکته درباره این موضوع:

  • اگر ربات خزنده قصد داشته باشد به زیر دامنه‌های ما سر بزند باید برای هر زیردامنه یک فایل robots.txt جداگانه ایجاد کنیم.
  • اگر سایت شما هم با www و هم بدون www باز می‌شود باید فایل robots.txt را در هر دو حالت یکسان تنظیم کنید؛ همین موضوع برای http و https هم صدق می‌کند ولی به این نکته توجه داشته باشید که اگر سایت به این شکل در دسترس باشد باعث ایجاد محتوای تکراری می‌شود که برای سئو داخلی سایت به‌شدت ضرر است و یکی از دلایل پنالتی شدن سایت در گوگل می‌باشد، چراکه تمام زیر دامنه‌ها از نگاه گوگل یک سایت مجزا محسوب می‌شود. ولی درباره این فایل بدانید که اگر زیر دامنه‌های شما جداگانه باز می‌شود گوگل برای خواندن فایل robots.txt دامنه http را اولویت قرار می‌دهد.
    http://www.site.com
    https://www.site.com
    http://site.com
    https://site.com
  • نکته مهم دیگر اینکه که فایل robots.txt حتما باید با حروف کوچک نوشته شود. این فایل همانند URL نام این فایل نسبت به حروف بزرگ و کوچک حساس است. به عنوان مثال آدرس‌های زیر کاملا با هم فرق دارند و فقط اولین آدرس صحیح می‌باشد.
    mizfa.com/robots.txt
    mizfa.com/robotS.txt
    mizfa.com/robots.TXT
    mizfa.com/Robotx.txt
    mizfa.com/ROBOTS.txt

چند مثال برای درک بهتر مکان صحیح فایل robots.txt

آدرس فایل robots.txt معتبر بودن فایل در آدرس‌های معتبر نبودن فایل در آدرس‌های توضیحات بیشتر
http://example.com/robots.txt http://mizfa.com/
http://mizfa.com/blog/file
http://mizfa.academy/

شرکت خدمات طراحی سایت و سئو


http://mizfa.com:8181/

آدرس فایل robots.txt برای زیر دامنه ها و دامنه‌هایی که با پورت باز می‌شوند  معتبر نیست
و فقط برای همان دامنه و تمام فولدرهای آن معتبر است.
http://www.example.com/robots.txt http://www.mizfa.com/ http://mizfa.com/
http://service.www.mizfa.com/
http://www.mizfa.academy/
هر زیر دامنه و همینطور دیگر ورژن‌های زیر دامنه باید یک فایل robots.txt مجزا از فایل robots.txt دامنه اصلی داشته باشد. این موضوع در مورد دیگر ورژن‌های دامنه اصلی هم صدق می‌کند مگر آنکه ریدایرکت اصولی صورت گیرد که در این صورت نیازی به فایل robots.txt مجزا نیست.
http://example.com/blog/robots.txt چنین آدرس فایلی اصلا توسط ربات‌ها خزش نمی‌شود.

اگر در مورد جدول فوق ابهام داشتید با کمال میل در بخش کامنت این مطلب پاسخگوی شما هستیم.

نحوه ساخت فایل robots.txt

اگر بعد از مراجعه به آدرس http://domain.com/robots.txt خطایی مشاهده کردید یعنی سایت شما فایل robots.txt را ندارد. برای ساخت robots.txt کافی است به کنترل پنل هاست سایت مراجعه کنید، حال اگر کنترل‌پنل هاست از نوع سی‌پنل باشد محیطی شبیه عکس زیر دارد.

ساخت robots.txt در سی پنل
ساخت robots.txt در سی پنل

در ریشه یا روت سایت یک فایل ساده ایجاد کرده و فرمت و نام آن را robots.txt درج کنید. گوگل در مقاله Create a robots.txt file به آموزش ساخت فایل robots.txt اشاره کرده است و ما هم در ادامه این مقاله به نمونه دستورات در فایل Robots.txt اشاره خواهیم کرد اما قبل از هرچیز بهتر است ابتدا به تعریف سه کلمه‌ی کلیدی بپردازیم.
User-agent : نام ربات موردنظر را جلوی این عبارت می‌نویسیم که البته حساس به حروف کوچک و بزرگ نیست ( به عبارت دیگر non case sensitive است). با استفاده از کیورد user-agent می‌توانید ربات خاصی را هدف گرفته یا به‌طورکلی، دستوری را خطاب به همه آن‌ها درج کنید. گاهی بعضی از موتورهای جستجو ربات‌های مختلفی نیز دارند همانند موتور جستجوی گوگل که برای تصاویر، اخبار و موارد دیگر ربات خاص خود را دارد. در ادامه مثال‌های متنوعی خواهیم زد تا بهتر به این امر پی ببرید.
لیست ربات‌های معروف موتورهای جستجو در عکس زیر:

لیست ربات‌های معروف
لیست ربات‌های معروف

 

اگر قصد دارید اطلاعات بیشتری درباره ربات‌های گوگل کسب کنید این مقاله سایت گوگل را مطالعه فرمایید.
Disallow : مقابل این کیبورد، دایرکتوری‌ای را درج می‌کنید که قصد ندارید توسط ربات ایندکس شود. بعد از عبارت User-agent می‌توانید در هرچند بار که لازم باشد از Disallow استفاده نمایید. به این نکته مهم توجه کنید که ربات موتورهای جستجو به حروف کوچک و بزرگ در دایرکتوری‌ها حساس هستند. در ادامه مثال‌های متنوعی خواهیم زد تا بهتر به این امر پی ببرید.
Allow : برعکس دستور Disallow است هرچند دستور Allow غیررسمی است ولی توسط اکثر ربات‌های معروف شناخته‌شده است.

نمونه دستورات در فایل Robots.txt

قبل از هرچیز بدانید که:
* به همه اشاره دارد، مثلاً همه‌ی ربات‌ها یا همه‌ی کاراکترها. در مثال‌های زیر به خوبی متوجه کاربرد * می‌شوید.
/ به تنهایی به معنی همه‌ی آدرس‌ها است.
$ به پایان مسیر یک URL اشاره می‌کند.

مثال یک – عدم دسترسی به کل سایت

در نتیجه در خط اول مثال زیر با درج * همه ربات های موتورهای جستجو را خطاب قرار می‌دهیم و در خط دوم با درج / به عدم خزش و ایندکس تمام آدرس های دامنه اشاره می‌کنیم. بنابراین دستور زیر یعنی: هیچ‌یک از موتورهای جستجو مجاز به خزیدن سایت شما نباشند.

User-agent: *
Disallow: /

 

مثال دو – دسترسی به کل سایت

دستور زیر برعکس دستور بالا می‌گویید همه ربات‌های موتورهای جستجو به کلیه آدرس‌های سایت دسترسی دارند.

User-agent: *
Disallow:

مثال از فایل robots.txt

خلاصه تصویری از دو مثال بالا

مثال سه – عدم دسترسی به دایرکتوری خاص

دستور زیر به این معناست که ربات گوگل به پوشه blog و همه زیرپوشه‌های blog دسترسی ندارد. درواقع عدم دسترسی هم شامل آدرس mizfa.com/blog و هم شامل آدرس‌های به‌مانند mizfa.com/blog/example می‌شود. در این شرایط بقیه ربات‌ها به‌جز ربات گوگل دسترسی به این دایرکتوری را دارند.

User-agent: googlebot
Disallow: /blog

 

مثال چهار – اولویت ربات ها

همان‌طور که گفتیم موتورهای جستجو ممکن است تعداد ربات‌های زیادی برای موارد خاص داشته باشند برای همین اولویت هم برای آنان مهم است. درصورتی‌که در فایل robots.txt دستوراتی را درج کرده باشید که چند بلاک مختلف آن‌ها برای یک ربات (خزنده) صادق باشد، ربات موتور جستجو همیشه دستوری را که به‌طور واضح‌تر به آن ربات خاص اشاره می‌کند انتخاب کرده و دستورات همان بخش را اجرا خواهد کرد. مثلاً فرض کنید اگر فایل robots.txt همانند دستور زیر یک بلاک مخصوص Googlebot و یک بلاک مخصوص Googlebot-Video وجود داشته باشد. در این حالت اگر ربات عکس گوگل (Googlebot-Image) وارد سایت شما شود، در میان این بلاک‌ها از اولی پیروی خواهد کرد و اگر ربات ویدیو گوگل (Googlebot-Video) وارد سایت شود، از بلاک دومی پیروی خواهد کرد و دستورات بلاک اولی را نادیده گرفته چراکه بلاک دومی برای آن در اولویت است.

User-agent: Googlebot
Disallow: /Photo
User-agent: Googlebot-Video
Allow: /blog

مثال پنج – Regular Expression

شما می‌توانید از عبارات منظم (Regular Expression) هم برای استفاده در دستورات فایل robots.txt استفاده کنید. البته این عبارات منظم به شکل رسمی در این فایل تعریف‌نشده‌اند ولی اکثر ربات‌های معروف در دنیا از عبارات منظم نیز پشتیبانی می‌کنند. مثلاً در دستور نیز اشاره‌شده که کلیه ربات‌ها به فایل‌ها با پسوند pdf که در فولدر (دایرکتوری) test وجود دارند، نباید دسترسی داشته باشند.

User-agent: *
Disallow: /test/*.pdf$

 

مثال شش – تعیین استثنا برای دسترسی به محتوای دایرکتوری

حال قصد داریم کمی درباره وردپرس حرف بزنیم و یک فایل robots txt برای وردپرس به شکل بهینه شده و مناسب ایجاد کنیم. دستور زیر که در بسیاری از سایت‌های وردپرس استفاده می‌شود به این معناست که تمام ربات‌ها به پوشه wp-admin دسترسی نداشته باشند ولی به فایل admin-ajax.php که در این پوشه هست دسترسی پیدا کنند. البته بودن چنین دستوراتی در فایل robots.txt ضرری هم ندارد هر چند ربات توانایی وارد شدن به محیط ادمین وردپرس را ندارد ولی خطا در کدنویسی هم از سمت گوگل و هم از سمت ما طبیعتا امکان‌پذیر است. اگر توجه کرده باشید ما در این مقاله یک بار از کیورد User-agent استفاده کردیم و سپس ۲ خط دستور وارد کردیم، شما می‌توانید به تعداد دلخواه دستورات لازم را در هر خط وارد نمایید.

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

 

مثال هفت – اشتباه رایج

یکی دیگر از دستورات رایج و اشتباه از نگاه یک متخصص سئو در فایل robots.txt وردپرس که در بسیاری از سایت‌های معروف ایرانی استفاده می‌شود کدهای زیر می‌باشند. بنده شخصاً در هیچ‌یک از سایت‌های معتبر خارجی که دارای سیستم مدیریت محتوا وردپرس هستند چنین کدهایی را پیدا نکردم. عدم دسترسی به wp-includes که در آن یک سری فایل‌های مهم مثل جی کوئری است باعث می‌شود سایت به آن شکلی که باید برای موتور جستجو نمایش دهد، خروجی نگیرد. سایت‌های مثل یوآست، نیل پتل، searchengineland و ده‌ها سایت معروف وردپرس که در مبحث سئو صاحب‌نظرهای جهانی هستند از چنین دستوراتی که باعث عدم دسترسی به فایل‌های wp-includes می‌شود استفاده نمی‌کنند، حتی سایت یوآست در این مقاله اشاره‌کرده چنین دستوراتی اشتباه است و باعث مسدود شدن ربات‌ها به بعضی فایل‌ها می‌شود که برای سئو سایت خوشایند نیست.

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
[box type=”info” align=”” class=”” width=””]نکته: در مثال فوق disallow کردن /wp-includes/ را به عنوان اشتباه رایج معرفی کرده‌ایم، نه /wp-admin/.  درج /wp-admin/ در فایل robots.txt وردپرس یک روش پیشفرض است و ترجیح دادیم در هرمثال آن را قرار دهیم. (البته Disallow کردن /wp-admin/ نسخه‌ای نیست که بشود برای همه وبسایت‌ها پیچید و کاملاً بستگی به سایت دارد)[/box]

مثال هشت – عدم دسترسی به آدرسی با کاراکتر خاص

دستور زیر وقتی کاربرد دارد که شما در آدرس‌های خود کاراکتری مانند ? را داشته باشید چراکه گاهی به دلیل مشکلات فنی در سایت، مقاله شما ممکن است با آدرس‌های مختلف و با مقادیر متفاوت انتشار پیدا کند. به همین منظور دستور زیر را به شکل موقت درج می‌کنید تا ربات‌ها آدرس‌های دارای کاراکتر علامت سؤال را ایندکس نکنند.

User-agent: *
Disallow: /*?

در مثال پایین با درج $ تأکید می‌کنیم که اگر در انتهای آدرسی علامت سوال (?) بود، آن آدرس باید Disallow شود. در نتیجه مثال پایین یعنی هیچ رباتی اجازه‌ی خزش آدرس‌هایی که با ? تمام می‌شوند را ندارند. در این شرایط آدرس‌هایی که با ? به اتمام نمی‌رسند در نظر گرفته نمی‌شوند.

User-agent: *
Disallow: /*?$

اگر به دنبال مثال های بیشتری هستید مقاله Robots.txt Specifications گوگل هم می‌تواند برای شما مفید باشد.

تست فایل robots.txt در سرچ کنسول گوگل

در نهایت بعد از ساختن فایل robots.txt نوبت به تست و صحت کارکرد آن می‌رسد.
[box type=”warning” align=”” width=””]آپدیت 2020: توجه داشته باشید در ورژن جدید سرچ کنسول امکان تست فایل robots.txt وجود ندارد. برای تست این فایل از این لینک وارد شوید. اگر با خطایی مواجه شدید URL سایت (مثلا http://mizfa.com) را در سرچ کنسول به عنوان property جدید اضافه کنید و مجدد آزمایش کنید.[/box] گوگل در قسمتی از سرچ کنسول خود شرایط رایگانی برای تست فایل robotx.txt فراهم کرده است.  به این منظور وارد سرچ کنسول (وبمسترتولز) شوید. ( اگر به دنبال یادگیری حرفه ای سرچ کنسول هستید حتما سری به آموزش سرچ کنسول وبسایت میزفا بزنید)

Webmasters ccount Sign In
در منوهای موجود سرچ کنسول “Crawl” را انتخاب کنید.

Webmasters ccount crawl

سپس زیرمنوی  “robots.txt Tester.” را انتخاب کرده تا ابزار تست این فایل را مشاهده کنید.

Webmasters ccount robots.txt

در سمت راست دستوراتی را مشاهده می‌کنید که در فایل robots.txt درج کرده بودید. این نشان دهنده این است که شما به درستی این فایل را ایجاد کرده‌اید و مکان آن صحیح است.

تست فایل robots.txt در وبمسترتولز

اگر قصد دارید مطمئن شوید که آیا ربات به آدرسی دسترسی دارد یا نه، می‌توانید در قسمت “Enter a URL to test if it is blocked” آدرس را وارد کنید و نوع ربات گوگل را هم مشخص نمایید و دکمه تست را بزنید

دکمه test فایل robots.txt در وبمسترتولز گوگل

اگر با پیغام “ALLOWED” مواجه شدید به معنای آن است که ربات گوگل به آن دایرکتوری دسترسی دارد در غیر این صورت با پیغام “BLOCKED” روبه‌رو می‌شوید که بنی بر آن است که ربات دسترسی به آن آدرس (دایرکتوری) را ندارد.

اطلاعات بیشتر درباره تست فایل robots.txt در سایت گوگل مشاهده کنید.

چند نکته پایانی درباره فایل robots.txt

  • ربات‌های خزنده و یا بعضی ربات‌های موتورهای جستجو ممکن است به دستورات موجود در فایل robots.txt که درج‌شده را نادیده بگیرند. مخصوصاً ربات‌های اسپم یا مالور (malware robots) که برای آسیب‌پذیری، سایت‌ها را بدون توجه به این مسائل اسکن می‌کنند. و به دنبال ایمیل کاربران یا موارد دیگر هستند.
  • ممکن است متدهای فایل robots.txt را با متاتگ robots به اشتباه بگیرید برای همین پیشنهاد می‌شود که حتما مقاله کوتاه و مفید تفاوت فایل robots.txt با متاتگ robots را بخوانید.
  • موتورهای جستجو محتوای فایل robots.txt را کَش می‌کنند اما معمولا محتوای کش شده را روزی حداقل یک بار به روز رسانی می‌کنند. با این حال شما اگر تمایل دارید بعد از تغییرات در این فایل، موتورهای جستجو سریع‌تر کش را آپدیت کنند فایل خود را در این آدرس گوگل ارسال کنید. صحبت از Cache شد، آیا می‌دانستید که کش کردن سایت تأثیرات فوق‌العاده‌ای روی سرعت وبسایت‌هایی با ترافیک بالا دارد؟ راه و چاهش در مقاله بهترین افزونه کش وردپرس!

خب امیدوارم از آموزش ساخت فایل robots.txt و نکات پیرو آن استفاده کرده‌باشید و صرف نظر از اینکه از وردپرس، جوملا یا هر CMS دیگری استفاده می‌کنید بتوانید براحتی robots.txt بسازید. هرچند برای ایجاد فایل robots.txt برای وردپرس و دیگر سی ام اس ها مثل جوملا مثال‌هایی ارائه دادیم؛ اما فراموش نکنید که امکان ندارد یک فایل را به عنوان بهترین فایل robots.txt مناسب وردپرس یا CMSهای دیگر درنظر گرفت و برای همه‌ی سایت‌ها از همان یک فایل استفاده کرد.
راستی اگر شما هم تجربه‌ا‌ی درباره نحوه کارکرد و ساخت فایل robots.txt دارید خوشحال میشیم در نظرات به اشتراک بگذارید 🙂

آیا روبات های گوگل سایتی که فاقد فایل robots.txt است را خزش نمی‌کنند؟
حتی بدون فایل robots.txt سایت توسط روبات ها خزش می‌شود. کاربرد این فایل چیز دیگریست. 
ساخت فایل robots.txt برای هر سایتی ضروری است؟
خیر اما بون آن بهتر از نبودن آن است. بخش “فایل robots.txt چیست” این مطلب را بخوانید.
فایل robots.txt وردپرس با جوملا تفاوت دارد؟
خیر تفاوتی ندارد. در این مقاله توضیحات لازم ارائه شده‌است.
قطع دسترسی ربات‌های گوگل برای خزش فایل‌های css، js، html مشکلی دارد؟
بله نتیجه منفی دارد.
در ساخت robots.txt وردپرس disallow کردن /wp-admin/ ضروری است؟
یک عمل پیشفرض است اما استثنا هم وجود دارد. 
اگر یک صفحه دارای تگ‌کنونیکال یا لینک شده باشد با Disallow کردن از نتایج گوگل حذف می‌شود؟
چنین صفحه‌ای با وجود عدم خزش توسط روبات‌های موتور جستجو در نتایج نمایش داده می‌شود.

پوریا آریافر
اولین کسب و کار آنلاین خودم رو در فیسبوک راه‌اندازی کردم، سال ۲۰۱۱ یکی از پرتعامل‌ترین صفحات فارسی با ۸۰ هزار فالور فعال رو داشتم. بعد اینکه فیسبوک خالی از کاربر ایرانی شد وارد دنیای شبکه شدم و در انتهای سال ۲۰۱۲ مدرک MCSE مایکروسافت رو دریافت کردم، در حالی که نمره بالا گرفتم ولی کسی به دلیل به خطر افتادن موقعیت شغلی خودش به عنوان کارآموز منو قبول نمی‌کرد، بعدش با شروع دوران خدمت سربازی، مسئول بهینه سازی یک سایت خبری معتبر شدم و سئو یاد گرفتم. در ابتدای سال ۲۰۱۴ تونستم از رتبه ۱۵۰۰۰ به ۴۰۰ الکسا نزدیک کنم، اون زمان الکسا خیلی مهم بود. وارد دانشگاه شدم، به دلیل عدم علاقه به دانشگاه سعی کردم زودتر تمومش کنم و سه ساله در مقطع کارشناسی IT فارغ التحصیل شدم، توی دانشگاه هر کسی منو میدید یاد سئو میوفتاد، در همون سال آخر دانشگاه بزرگ‌ترین کانال تلگرامی IT با ۴۰ هزار عضو رو داشتم، که به مجتمع فنی فروختم تا بتونم تمرکز رو فقط بر روی عشق خودم یعنی سئو بذارم، وقتی کانال تلگرام فروختم حس پرواز بهم دست داد، هرچند درآمد چندین میلیون ماهانه رو از دست دادم ولی دوباره باید مثل گذشته با پوستی نو یک فصلی نو رو میساختم. در این چندین سال فعالیت‌های سئو به شکل تخصصی بنده در قالب پروژه‌های مختلف و آموزش‌های حضوری و غیرحضوری در دفتر میزفا و دانشگاه علامه طباطبایی تهران صورت ‌گرفته، تجربه بهینه سازی موفقی در بهبود UX و CRO پروژه‌های سئو کسب کردم. در اکثر ابزارهای کاربردی گوگل تسلط کاملی دارم. عاشق کسب تجربه های جدید هستم. راز پیشرفت در هر کاری رو یادگیری و یاددادن می‌دونم و میزفا که در اواخر ۲۰۱۶ راه‌اندازی شد تونست چنین بستر مناسبی رو برام فراهم کنه. همینطور در حال حاضر مدیریت یک تیم ۱۰ نفری از جوانان فعال و پرانگیزه رو در میزفا به عهده دارم. نقد و بازخوردهای سازنده شما، جوهر تلاش‌های مستمر ماست تا یک قدم خودمون بهبود بدیم. منتظریم …

92 نظر

92 پاسخ

  1. سلام وقتتون بخیر
    Disallow: /readme.html
    Disallow: /cart/
    Disallow: /checkout/
    Disallow: /likes/
    Disallow: /my-orders/
    Disallow: /dashboard/
    Disallow: */page/*
    Disallow: *?filter*
    معنای این تگ ها که تو فایل روبوت قرار میدهند چیه؟

    1. سلام وقت بخیر و شادی.
      پیشنهاد میشه کمی برای خودتون وقت بذارید و مقاله رو مطالعه کنید تا متوجه بشید.
      ممنونم از حضور شما

  2. سلام وقتتون بخیر بخاطر سایت فوق العادتون ممنونم. ببخشید یک راهنمایی خیلی کوچیک میخوام. من یک سری عکس داخل وردپرسم هست که نمیخوام در نتایج گوگل ایندکس بشن. قصد داشتم همون هارو ویرایش بزنم و براشون مثلا پسوند png لحاظ کنم و توسط ربات txt محدودشون کنم. اما واقعا زمان بر و دشواره. توی بخش رسانه ی وردپرس دیدم که میشه یک دسته بندی برای تصاویر ایجاد کرد. آیا امکانش هست که اون تصاویر مد نظر خودم رو در اون دسته بندی قرار بدم و اون دسته بندی رو محدود کنم؟ اگر امکانش هست ممنون میشم فقط بتونید کد دستوریش رو برام بفرستید تا در فایل robots.txt سایتم قرار بدم چون خیلی حساسه نمیتونم سرخود کاری کنم باهاش. ممنونم از شما

    1. سلام
      امیدوارم خوب باشی
      میتونی اون عکس ها رو بررسی داخل یک زیر دامنه و کلا زیردامنه رو با این فایل ربات مسدود کنی، همینطور میتونی این عکس ها رو در یک پوشه خاص درج کنی و دوباره ادرس پوشه رو در فایل ربات بدی و دوباره مسدود کنی.
      اگر فکر میکنی سخته و یا ممکنه خطا کنی در سایت هایی مثل پونیشا دنبال متخصص سئو بگرد تا برات انجام بده.

  3. سلام خسته نباشید یک سوالی داشتم کسایی که از ووکامرس استفاده می کنند می تونن دایرکتوری cart و دایرکتوری checkout رو در فایل robots به صورت disallow کنند منظورم اینه که این کار مشکلی نداره البته منظورم کسایی هستش که سیاستشون اینه که بیشتر بودجه خزش گوگل رو روی صفحات اصلی بزارند

    1. سلام حسین
      خود ووکامرس این صفحات رو به کمک تگ noindex میکنه و نیازی به استفاده از این فایل نیست.

  4. سلام و وقت بخیر
    من آدرس پایین رو که وارد می کنم نشون میده که سایت من فایل robots رو داره و اونو نشون میده اما از روت سایتم پیداش نمیکنم و نمیتونم ویرایش کنم.چه جوری میتونم به این فایل دسترسی داشته باشم و تغییرش بدم؟

    1. سلام ایزدی.
      حتما یک جای کار داری اشتباه میکنی. بخش public_html بررسی کن.

  5. سلام آقای آریا فر عزیز
    من در سایت تست گوگل یعنی() سایت رو تست کردم اما ارور میده که میگه از فایل روبوت بلاک هستیم! اما مقاله شما رو خوندم کامل چند جا دیگه هم خوندم ، که ذکر کردین اگر فایل روبوت ندارید بسازید. اماسایت من پیش فرض یک روبوت داره که در فایل منیجر نیست، اصلا پیدا نمیشه! حتی بالای صفحه به نحوه های مختلف سرچ کردم که پیداش کنم اما نیست که نیست! عکس ارور هم آپلود کردم براتون لطفا کمکم کنید

    1. سلام آرمان.
      صورت مسئله گنگ هست و نمیشه نظر داد. با این حال فکر میکنم شما در یک جایی درست تشخیص ندادید و باعث شده صورت مسئله گنگ باشه. پیشنهاد میشه اگر تلاش کردید و به نتیجه نرسیدید به یک متخصص سئو دسترسی بدید تا اون هم یک بررسی کنه.
      عکسی هم که فرستادید مربوط به داکیومنت های گوگل هست.
      موفق باشی.

  6. سلام وقت بخیر
    من مشکلی برام پیش اومده من زمانی داخل روبوتس دات تی اکس تی دسترسی ربات های گوگل رو به سایت بسته بودم. الان به حالت دیفالت برگردوندم و دسترسی همه بازه اما همچنان گوگل سرچ کنسول به من اخطار میده که ربات ها توسط روبوتس دات تی اکس تی بلاک شدن و صفحات کراول نمیشن.
    دلیلش چی میتونه باشه؟ ممنون میشم کمکم کنید.

    1. سلام رایان.
      باید به گوگل زمان بدی چون اصولا این فایل سمت گوگل کش میشه. به مرور این موضوع حل میشه (البته این پیش فرض رو دارم که تو درست کار رو انجام دادی)

  7. من حدود 20 صفحه با خطای 404 دارم. میشه این لیست رو وارد این فایل کنم؟ مشکلی پیش نمیاد؟

  8. سلاو و درود
    طی چن روز قبل فایل robots.txt را دسکاری کردم که منجر به ایندکس نشدن محصولات و مقاله جدیدم شد
    بعد از کلی تحقیق این کد را جاگذاری کردم و هنوز صفحات جدیدم ایندکس نشده اند آیا این کد در تصویر مشکلی دارد؟
    ممنون میشم کمک کنید با تشکر

    1. سلام امین.
      اصولا توی گوگل صفحات سریع پاک میشه ولی برعکس دیر انجام میشه.
      پس باید زیاد صبر کنی و یا میتونی به گوگل اعلام کنی بیاد تو سایتت ( مقاله url inspection بخون)
      کدت هم مشکلی نداره ولی تو کد نوشتی همه ربات ها به همه جای سایت دسترسی دارن. خب اگر قرار هست دسترسی به همه جا بدی من جات بودم دو خط کد رو کلا برمیداشتم. چون به شکل پیش فرض اگر چیزی ننویسی همین معنا رو میده و همه ربات ها به همه جا دسترسی دارن.

  9. باسلام.
    ممنون از مقاله جامعتون
    یک سوال داشتم.
    در حال حاضر وبسایت ما دو مدیریت محتوا جدا داره.
    اصلی: اختصاصی هست
    و بخش بلاگ با وردپرس.
    به این صورت : example.com
    و example.com/blog
    برای اینکه بخش wp-admin رو ببندیم باید به چه شکل تعریف کنیم ؟
    آیا Disallow: /blog/wp-admin/ درسته ؟

    1. سلام وقت بخیر
      باید یک فایل ربات توی روت اصلی سایت بسازید و به همون صورتی که اخر متن نوشتید درج کنید.

  10. سلام خسته نباشید ممنون از مقاله خوبتون
    یه سوال داشتم
    من در فایل robots پست تایپ ها و تکسونومی هایی که نمیخام ایندکس بشن رو قرار دادم (چون صفحه ای ندارن و صرفا تو کد نویسی استفاده میشن) میخاستم بدونم کارم درست بوده یا اشتباه؟

    https://tarahilogo.com/robots.txt

    ممنون میشم راهنمایی کنید

    1. سلام وقت بخیر
      من یک مورد بررسی کردم برام منطقی نبود که چرا برای price این کار کردید و به نظرم اشتباه هست.
      بقیه موارد رو بدید به یک متخصص سئو تا با داشتن دسترسی به سرچ کنسول شما دقیق تر نظر بده تا یک وقت اشتباه جلو نرید.
      موفق باشی.

      1. price هم نام یکی از پست تایپ هام هست که قیمت ها رو مشخص میکنه که انگاری یکی از برگه هام هم همین اسم رو داره،این مورد باید درست بشه،جناب اگه این هایی که نوشتم صفحه نداشته باشن و اصلا نخام ایندکس بشن این کاری که کردم درسته دیگه؟فک نمیکنم مشکلی باشه

        1. متاسفانه من از ساختار آدرس سایت شما و همینطور صفحاتی که دارید اطلاعاتی ندارم که بخوام نظر دقیق و درستی بگم.
          اینکه نمیخواین برخی صفحات ایندکس بشن خب به کنار و اوکی هست ولی وقتی با همین کار میاین صفحات مهم رو هم از ایندکس در میارید مشکل درست میکنه، یک نمونه هم بررسی کردم و دقیقا همین یک نمونه این مشکل داشت.
          با این حال با دقت و بررسی بیشتری از این فایل استفاده کنید تا آسیب به سئوی سایت خودتون وارد نکنید.

  11. سلام
    در مورد اینکه معمولا کدام پوشه ها و کدام فایل ها را دسترسی داده یا محدود کنیم مثل پوشه های فایل های js و scss و font و documents که فایل های پی دی اف قرار دارد و فایل های css و پوشه های img و … صحبت نشده ممنون میشم راهنمایی کنید که اگر محدود بشن خوبه با نشن و دلیل اینکار برای سئو هسا یا نه و اینکه google image مثلا ار تصاویر استفاده شده در صفحه استفاده میکنه توی سرچش و این مناسب هست یا نیست …

    1. سلام میلاد.
      هر منبعی (عکس، جاوااسکریپت یا سی اس اس و یا …) که برای لود یک صفحه کاربر نیاز هست (کاربر لاگین شده رو نمیگم) رو نباید روی گوگل ببندیم.

  12. سلام و خسته نباشید
    من یه سایت راه اندازی کردم که هنوز به طور کامل کاراش تموم نشده و خیلی از صفحات باید ویرایش یا حذف بشه تا نهایی بشه.
    اما مشکلی که هست اینکه زمان راه اندازی فراموش کردم که گزینه ایندکس نشدن رو در ورودپرس تائید کنم و این باعث شده که کلی از صفحات بی ارتباط و غیر لازم خود قالب در گوگل ایندکس بشه(site:domain.com) حال با این وضعیت چطور می تونم این صفحات غیر مرتبط و پیش فرض قالب از ایندکس گوگل حذف کنم و بعد از اتمام کارهای سایت مجدد بتونم سایت نهای اینکس کنم. (آیا در فایل روبوت باید دسترسی به سایت کاملا دیس الو کنم یا کار دیگه ای؟)
    ممنون میشم راهنمای بفرمائید.
    تشکر

  13. سلام، افزونه یوآست چندین نقشه سایت برام ایجاد کرده( از جمله post-sitemap.xml و product-sitemap.xml و category-sitemap.xmlوpost_tag-sitemap.xml و author-sitemap.xml) آیا فقط باید یکی رو داخل فایل robots.txt قرار بدم یا همه نقشه های سایت رو قرار بدم؟؟؟

    1. سلام جعفر.
      یک دونه اصلی داره که تو قسمت سئو و بخش عمومی هست، میتونید اونو درج کنید. ولی با این حال درج همه این نقشه ها در این فایل هم مشکلی ایجاد نمیکنه.
      شاد و پیروز باشی.

  14. سلام و عرض ادب
    تشکر بخاطر آموزشهای خوبتون
    من یک سایت در پوشه public_html راه اندازی کرده ام. با استفاده از اددآن دامین هم یک سایت دیگه در یک پوشه مجزا که آن پوشه در ریشه قرار دارد راه اندازی کرده ام.
    آیا باید فایل robots.txt را برای هر سایت و در داخل پوشه خود ایجاد کنم؟
    آیا تداخلی پیش نمی آید؟
    با تشکر از شما

    1. سلام محمد عزیز.
      بله باید برای هر دامنه جدا تعریف کنی.
      نه تداخلی رخ نمیده اگر در پوشه درست ایجاد کنی.
      موفق باشی.

  15. با سلام
    من فایل robots.txt را درست نساخته بودم و گوگل ادرس هایی که مربوط به فیلتر یک صفحه می شد مثلا ادرس هایی که دارای ؟ هستند را crawl کرده حالا فایل robot.txt را درست ساختم ایا این صفحات دابلیکیت از نتایج گوگل حذف می شود ؟ و چقدر زمان می برد ؟ اگر درست نمی شود باید چی کار کنم ؟

    1. سلام. این موارد رو بهتره به کمک تگ canonical بهینه کنید و استفاده از فایل ربات پیشنهاد نمیشه.
      موفق باشید

  16. سلام الان من یک مشکل پیدا کردم واین است که یک قسمت به سایت من اضافه شده که بیشتر مطالب من داخل اون بخش است نام لینکش به این شکل است بعد نام دامنه /?cat=-1 این لینکش است من این را چطور در فایل ریبوتس نوفالو کنم که بعد هم از جستوجوی گوگل حذف کنم
    2- آیا این دستور را من برای لینکی که گفتم وارد کنم Disallow: /*?* یا به این شکل هم میشه Disallow: /?cat=-1 الان من به شکل دوم وارد کردم

    ایا موافق هستید باروش من ممنون میشم خیلی زود پاسخ بدید خیلی ناراحت این موضوع هستم

    1. سلام شاهین جان. چرا ناراحتی؟ مشکل خاصی نیست که، مشکل داشت بسته میشه و در نتایج هم کم کم اعمال میشه و اگر مشکل نداشت میذاری همینطوری باشه.
      مطمئن هستی محتوای این ادرس ها ارزش خاصی نداره؟ من حس میکنم این ادرس ها مربوط به دسته بندی های شما هست و ممکنه دسته بندی های شما مهم باشن.

      1. سلام
        جناب پوریا عزیز مجدد بعد چند سال این مشکل برام ایجاد شد و مجدد در گوگل نمایش داده شده ?cat=-1 شما فرمودید فکر میکنید برای دسته بندی ها باشه خیر برای وبلاگ است و من در سایتم وبلاگ را به نمایش نگذاشتم و در دسته ها مطالبم قابل مشاهده است آیا بهتر نیست ?cat=-1 دیسلو کنم ؟

        1. سلام
          سایت رو باید بررسی کرد تا بشه نظر درست داد. الان صورت مسئله بدون بررسی دقیق گنگ هست.

  17. سلام و خداقوت
    بابت آموزش های خوبتون سپاسگزاریم

    جسارتا بنده تو این موضوع با اینکه همه موارد رو دقیق رعایت کردم و حتی تو سایت های دیگه ای هم هیچ مشکلی نداشتم، متاسفانه نمی دونم چرا تو سایت جدید به مشکل خوردم و با اینکه فایل روبوت یه شکل زیر هست:
    User-Agent: *
    Disallow: /wp-content/plugins/
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php
    Allow: /wp-content/uploads/

    اما گوگل میگه که دسترسی به نقشه رو نداره!

    1. سلام طاها.
      به نظر من که خیلی کار اشتباهی کردی wp-content/plugins رو بستی. با این حال بدون بررسی دقیق و اطلاعات نمیشه درباره نقشه نظری داد. ممکنه تشخیص شما مشکل داشته باشه و یا حتی ممکنه گوگل اشتباه تشخیص داده باشه.

      1. پلاگین ها رو یعنی باز کنم؟
        آخه دقیقا همین فایل رو برای همه سایت های دیگه هم استفاده کردم و تو هیچ کدوم به مشکل نخوردم، اما این یکی رو گوگل میگه دسترسی نداره! اصلا انگار فایل رو نمیشناسه!

        البته اینو بگم که بینگ هم ناشناس زده بود ولی چن ساعت بعد اوکی شد و مشکلش برطرف شد. اما گوگل نه

        1. ما که پلاگین ها رو نمیبندیم. ربات باید بتونه صفحات رو خوب لود کنه و برخی فایل ها در این مسیر هستند. گوگل انقدر هوشمند هست که بفهمه این فایل js هست و نباید در نتایج بیاره.
          همون طور که قبلا اشاره کردم میتونه تشخیص اشتباه گوگل باشه که از این تشخیص های اشتباه زیاد داره. و همینطور نباید فکر کنید رفتار بر روی هر سایت یکسان هست. به همه مریض هایی که یک نوع بیماری رو دارن دکتر یک نوع دعوا رو تجویز نمیکنه. به شرایط فرد مثل سن و جنسیت و قدرت بدنی و سابقه فرد و شدت بیماری نگاه میکنه.
          هر سایت هم به همین صورت هست. اینکه در یک سایتی اینطوری بوده اینطوری شده به این معنی نیست که در سایت دیگرم هم همون اینطوری بشه.

  18. سلام و خسته نباشید
    من یک سری صفحات وب سایتم به خاطر url هایی که کوکی لس سشن ها میسازن، به صورت های متفاوتی ایندکس شده. مثل این : http://localhost/(F(blahblah)/mypage
    اگر توی روبوت، مثل مثال هشت که شما زدید و علامت سوال رو disallow کردید من (F( رو disallow بکنم این مشکل حل میشه؟
    ممنون ازتون

    1. سلام مینا. وقت بخیر
      چرا این صفحاتی که اتوماتیک ساخته میشن رو طوری تعریف نمیکنید که متا تگ نو ایندکس بخوره؟ این روش بهتری هست. هر چند باید بررسی بشه و این حرف کلی هست.
      درباره سوالت هم باید بگم اره میشه. البته این پاسخ من براساس صورت مسئله تعریفی شما بود.
      ممنونم از اینکه وقتت رو در سایت ما سپری کردی. موفق باشی

      1. ممنون بابت اینکه همیشه انقدر خوب و با حوصله پاسخ میدید. و تشکر از مقالات خوبتون درباره سئو.

        1. خواهش میکنم مینا.
          امیدوارم براتون مفید بوده باشه. باز اگر سوالی داشتید حتما بپرسید.
          پایدار و شاد باشید.

  19. سلام و احترام. سپاس از مطالب مفیدتان.
    یکسری از صفحات و دایرکتوری های سایتم رو نمیخوام توی گوگل یا موتورهای جستجوی دیگه ایندکس بشه. البته سایتم توی دایرکتوری forum هستش و من اون مواردی رو که نمیخوام ایندکس بشه به این صورت توی robots.txt وارد کردم. آدرس سایت به این صورت هستش :
    صفحه اصلی سایت : http://site.com هستش که با html طراحی شده (فایل robot.txt در root سایت قرار دارد یعنی : http://site.com/robots.txt)
    بعد توی دایرکتوری forum هم یک cms جداگانه دارم که من توی فایل robots.txt مواردی که در دایرکتوری forum نمیخوام ایندکس بشه رو به این صورت وارد کردم.

    User-agent: *
    Disallow: /forums/admincp/
    Disallow: /forums/ajax.php
    Disallow: /forums/calendar.php
    Disallow: /forums/clientscript/
    Disallow: /forums/cpstyles/
    Disallow: /forums/customavatars/
    Disallow: /forums/customgroupicons/
    Disallow: /forums/customprofilepics/
    Disallow: /forums/install/
    Disallow: /forums/includes/
    Disallow: /forums/images/
    Disallow: /forums/includes/
    Disallow: /forums/member.php
    Disallow: /forums/memberlist.php
    Disallow: /forums/online.php
    Disallow: /forums/profile.php
    Disallow: /forums/register.php

    ممنون میشم نظرتون رو بفرمایید.

    دوم اینکه من توی بخش covarage برای صفحه register انجمن خطای Submitted URL marked ‘noindex’ دارم میگیرم. بعد از این خطا من در فایل robots.txt بالا کلا register.php رو disallow کردم. آیا با این کار این خطا برطرف میشه؟ و اینکه چقدر زمان میبره حدودا؟
    پیشاپیش از راهنمای شما استاد عزیز تشکر میکنم.

    1. سلام وقت شما بخیر باشه محمد عزیز.
      ابتدا پیشنهاد میکنم این موضوع رو به یک متخصص سئو که امکان دسترسی به امار و سایت شما داره بسپارید، چرا که حس میکنم مسیر رو اشتباه میرید و صورت مسئله شما هم کافی نیست و باید دقیق بررسی کرد.
      به هر حال خطای سرچ کنسول نوایندکس هست و ربطی به فایل robots نداره. این دو با هم فرق دارن. در مقاله فرق متاتگ با فایل ربات اشاره کردم. پیشنهاد میکنم ادرسی که نباید ایندکس بشه رو محدود میکنید و عدم دسترسی بدید ارور ۴۰۳ درج کنید و یا از متا تگ noindex استفاده کنید. این روش ها بهترین راه هستند برای اینکه در نتایج ادرسی رخ نده.
      وقتی صفحه register خطای noindex داره یعنی متاتگ داره و میگه ایندکس نشو و وقتی شما disallow میکنید یعنی اشتباه در اشتباه. اشتباه اول این هست که این دو اصلا ربطی ب هم ندارن اشتباه دوم این هست که شما اینطوری محکم کاری کردید که دیگه نمایش داده نشه. البته شایدم هدفتون این باشه و سوال اشتباه پرسیده باشید.
      با این حال امیدوارم پاسخ من براتون مفید باشه.

  20. سلام
    ممنون بابت مقاله خیلی خوبتون، واقعا مقالات شما بی نظیر است
    دو سوال:
    1. خود شما در این فایل سایت مپ رو نیز قرار داید آیا نیازی به این کار است؟
    2. شما فهرست مطلب را چگونه ایجاد می کنید؟

    1. سلام مهدی جان. ممنونم
      ۱ – پیشنهاد میشه این کار رو انجام بدید.
      ۲- با کدنویسی.

  21. سلام. ممنون بابت این مقاله. همه چیز خیلی شفاف و خوب توضیح داده شده. مثل بقیه پست هاتون.
    یه سوالی داشتم. من چند تا صفحه توی سایتم داشتم که به دلایلی مجبور شدم حذفشون کنم. اما با اینکه چند ماهی گذشته، هنوز توی نتایج پیدا میشن. آیا کار درستیه که آدرسشون رو disallow کنم؟؟
    باز هم ممنون.

    1. سلام. خواهش میکنم و خوشحالم براتون مفید بوده.
      پیشنهاد نمیکنم. اگر صفحه ای نزدیک به موضوع اون صفحات پاک شده پیدا کردی بیا صفحات پاک شده رو ریدایرکت بکن به صفحات موجود.

  22. مطلب مفید و پرمغزی بود ولی شما نگفتی چطور جلوی رباتهای مخربو با استفاده از robots.txt میشه گرفت؟
    و سوال دوم اینکه معنی اسلشی که اول کلمه میاد (یعنی سمت چپ ترین) چیه؟ یا به عبارتی تفاوت این دوتا چیه
    /wpadmin/
    /wpadmin

    1. سلام امین جان. خوشحالم برات مفید بوده.
      درباره سوال اول: چرا گفتیم داخل مقاله. شما خودت داری میگی ربات مخرب. مگه ربات مخرب در قالب چهارچوب عمل میکنه؟ در مقاله اشاره شده که ربات های اسپم و تخریب کن اصولا توجهی به این فایل متنی ندارند.
      درباره سوال دوم: در ابتدا باشید بگم که بین wp و admin یک – وجود داره. و اینکه حالت /wp-admin/ شما استفاده کن

  23. سلام ممنون از مقاله خوبتون. یک سوال چه مواردی را باید در robots. txt در نظر بگیرید. از افراد بسیار ی پرسید جوابی که شنیدم اینکه مواردی که رباتها نمی خواهید ببینند. خب نکته اینجاست چه مواردی را گوگل نباید ببینند.

    1. سلام، خواهش میکنم.
      بستگی به سایت داره. هر سایتی یک سری سیاست‌های خاص داره و براساس همین سیاست‌ها این فایل تعریف میشه. البته نحوه کدنویسی هم بر تنظیمات این فایل دخیل است. سوال شما بسیار کلی و به شدت بستگی به نوع سایت داره ولی یک مثال میزنم تا براتون کمی باز بشه. برخی سایت‌ها مشکلات کدنویسی دارن و مثلا یک محتوا انتشار پیدا میکنه با چند ادرس در سایت دیده میشه، حال میان برخی ادرس های تکراری رو یک جا توسط این فایل میبندن تا محتوای تکراری حساب نکنه. (دو نکته: هر چند روش‌های دیگه هم برای رفع این مشکل هست و اینکه بستن دسترسی ربات گوگل به معنی ایندکس نشدن نیست).

  24. من متوجه نشدم! این روبات همون کاری رو انجام میده که کرال گوگل هم انجام میده؟

    1. لطفا دوباره مطالعه کنید تا بهتر متوجه بشید. فایل ربات یک سری خط‌مشی برای کرال ها تعریف میکنه. مثلا فعلان صفحه رو کرال ها بررسی نکنن یا فعلان صفحه رو بررسی کنن و …

  25. خیلی مفید بود ممنون از سایت بسیار خوبتون. خیلی کاربردی و مناسب سپاس

    1. منظور من اونجا wp-includes هست که خیلی سایت های ایرانی میبندن، البته متن گنگ هست قبول دارم و باید ویرایش کنم. هر چند wp-admin هم بستگی به سایت داره و نمیشه برای کل سایت‌ها بگیم مسدود کردنش خوبه یا بده.

  26. سلام داخل مطلب مقاله از یوست سئو گذاشتید که گفته بود wp-admin رو نباید مسدود کرد ولی داخل فایل ربات سایت خودتون این کار رو کرده بودید دلیلش چی هست ؟

    1. سلام سجاد، ادرس دقیق لطفا بگید که کجا گفتیم تا بررسی کنم. هر چند در این صفحه درباره wp-admin توضیح دادم و البته بهینه سازی سایت یا همون سئو برای هر سایتی متفاوت هست، شما برای هر غذایی یک اندازه نمک استفاده نمیکنی، هر غذایی فرق داره، سئو هم به همین شکل هست برای هر سایتی سئو خاص خودش رو میخواد. با این حال در خطی که بنده نوشتم نباید مسدود کرد رو لطفا بگید تا علت نوشتن رو بررسی کنم.

  27. سلام
    مطالب بسیار بسیار مفید شما را خواندم و خیلی جالب و کامل بود و نشان از حسن نیت و طبع بلند شما را دارد که در راستای انتقال اطلاعات تلاش بسیار دارید و خواهید داشت
    ممنون می شوم سری هم به سایت بنده بزنید و اعلام نظر فرمایید

    سایت شبکه تجاری دانشجویان ایران
    bansi.ir

  28. با عرض سلام و خسته نباشید من این ربات تکست رو استفاده میکنم :
    از عزیزان درخواست دارم در صورت امکان بررسی کنند و اگر مشکلی در فایل من وجود داره به من اطلاع بدن ممنون
    در مورد این دو تا دستور با وجود بسته بودن فایل : Disallow: /wp-includes/ حدود 1100 پست از من بلاگ شده بود توسط گوگل که این دو تا دستور رو گذاشتم پستها داره ایندکس میشه و به 200 تا پست کاهش یافته! کدها: Allow: /wp-includes/*.js$
    Allow: /wp-includes/*.css$

    در مورد این فایل هم : Allow: /wp-content/ یه مدتی بسته بود و پست هام توی وبمستر گوگل داشت بلاگ میشد که بازش کردم
    در مورد admin-ajax.php این مورد رو گذاشتم یه مدتی و با خطا مواجه شدم و برداشتمش مورد بعدی میخواستم بدونم در آخر دستورات آیا وجود Allow: / بهتره یا نه ؟ یا نباشه هم ایرادی نداره

    فایل من:

    # All Bots
    User-agent: *
    Disallow: /cgi-bin
    Disallow: /wp-admin/
    Allow: /wp-content/
    Disallow: /wp-includes/
    Allow: /wp-includes/*.js$
    Allow: /wp-includes/*.css$
    Disallow: /readme.html
    Disallow: /license.txt
    Disallow: /search/
    Disallow: /*?
    Disallow: /*.php$
    Allow: /*.js$
    Disallow: /*.inc$
    Allow: /*.css$
    Allow: /*.jpg$
    Disallow: /*.gz$
    Disallow: /*.wmv$
    Disallow: /*.cgi$
    Disallow: /*.xhtml$
    Disallow: /*rurl=*
    Disallow: /feed
    Disallow: */feed
    
    Sitemap: xxxxx
    1. سلام، نمیشه همینطوری نظر داد چرا که باید دسترسی به سرچ کنسول داشت و پیشینه سایت رو مورد ارزیابی قرار داد تا بشه جواب مناسب داد ولی کاری که شما انجام میدید مثل خوددرمانی هایی هست که خیلی از افراد دارن انجام میدن و این میتونه عواقب نامناسبی داشته باشه.
      وجود خیلی از دستورات بالا رو من درک نمیکنم ولی به هر حال با یک متخصص که آگاهی از سایت شما داره در تماس باشید.

  29. سلام
    مطالب سایت شما خیلی عالی و آموزنده است
    من پاسخ خیلی از سوالاتم را دریافت کردم
    واقعا ممنون از زحمات شما

    1. سلام، خوشحالم در عمل مفید بوده. موفق و پایدار باشید.

  30. با تشکر از پست خوبتون
    ممنون بابت این که به سادگی و با توضیحات کامل مطالب را بیان کردید
    امیدوارم موفق و موید باشید

  31. سلام
    تقریبا تمام مطالب سایت شما رو مطالعه کردم.
    از سایت ما هم دیدن فرمایید .
    ifix.ir

  32. موارد آموزشی سئو را در سایت مهرارقام به نشانی blog.mehrargham.com بخوانید.

  33. ممنون از سایت خوبتون

    اگه میشه از سایت ماهم بازدید بفرمایید.

    chapebaharestan.ir

    1. تشکر از حضور شما، بر روی چینش محتوا بیشتر زمان بذارید و همینطور فونت و سئو محتوای سایت
      موفق باشید.

  34. سلام مطلب خوبی بود
    فقط من فایل ربات رو میسازم تو هاست
    با پسوند بک اپ میاد مشکل از کجاست
    meshop2.com

    1. سلام، خواهش میکنم
      منظور شما از پسوند بک آپ رو متوجه نشدم، فایل robots.txt سایت شما بررسی شد و مشکل خاصی نداره، درضمن سرعت سایت شما به شدت کند است، روی این موضوع در جهت رونق کسب و کار خودتون کار کنید
      موفق باشید

  35. سلام
    خسته نباشید
    من robot.txt رو اوایل به اشتباهی فعال کرده بودم که کلا وبلاگم رو هیچ موتوری ایندکس نمیکرد،بعد از چند وقت فهمیدم و کد meta NAME=”ROBOTS” CONTENT=”ALL” / رو تو قالب وبلاگم قرار دادم و با webmaster هم صفحه mostanadd.blogfa.com/robots.txt رو remove کردم الان از کجا باید بفهمم که صفحاتن ایندکس میشه یا نه؟با توجه به اینکه هنوز کد های robot در robot.txt وجود داره

    1. سلام، شما هیچ دسترسی به فایل robots.txt ندارید و نمیتونید تغییراتی در اون ایجاد کنید و حذف این فایل در وبمسترتولز عملی رو پیش نمیبره چرا که در سایت شما موجود هست.
      متاتگ robots و فایل robots.txt در بلاگفا دسترسی کامل رو به ربات ها میدن برای ایندکس شدن صفحات، حال کافیه سایتتون رو در گوگل به این شکل سرچ کنید:
      site:mizfa.com
      صفحاتی که توسط گوگل جستجو میشن رو براتون میاره

      1. بله ولی صفحات رو خودم از طریق webmaster ایندکس کردم(fetch as google)

        1. خب پس مطالب شما ایندکس میشن در بلاگفا و مشکلی نیست، فقط ممکنه طول بکشه و اگر طول کشید همان‌طور که اشاره کردید میتونید دستی عمل فچ انجام بدید.

  36. ممنون از مطالب خیلی خوب و مفیدتون
    باتشکر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

حداکثر حجم فایل برای آپلود: 1 مگابایت. فایل‌های مجاز برای آپلود: عکس, ویس, ویدیو, ورد یا پی دی اف, فایل متنی, زیپ. شما می‌تونید برای بهتر پرسیدن سوالتون، عکس یا ویس یا حتی فیلم در بخش نظرات میزفا آپلود کنید. برای ضبط ویس می‌تونید از خود واتس آپ استفاده کنید و بعد اینجا آپلود کنید و برای ارسال عکس هم کافی هست اسکرین شات بگیرید. Drop file here

با موفقیت ثبت شد، میزفا از شما برای عضویت در خبرنامه هفتگی تشکر میکند.

عضویت در خبرنامه هفتگی برای دریافت:

  • فیلم و مقاله رایگان سئو
  • آموزش‌های UX ، GA و GTM
  • مقاله های تخصصی ASP.NET Core
  • اطلاع رسانی از محصولات
فیلم آموزشی asp.net core 2
ترک میزفا خوب نیست!
معرفی جامع‌ترین ابزار سئو در ایران
بالای ۱۰ هزار عضو
PHZpZGVvIHdpZHRoPSI2MDAiIGhlaWdodD0iMzUwIiBwb3N0ZXI9Imh0dHBzOi8vbWl6ZmEuY29tL2Jsb2cvd3AtY29udGVudC91cGxvYWRzLzIwMjMvMDUvcG9zdGVyLW1pemZhLXRvb2xzLXZpZGVvLW1pbi5wbmciIGNvbnRyb2xzIHByZWxvYWQ9Im5vbmUiPiANCiAgIDxzb3VyY2Ugc3JjPSJodHRwczovL21pemZhLmNvbS9ibG9nL3dwLWNvbnRlbnQvdXBsb2Fkcy8yMDIzLzA1L21pemZhX3Rvb2xzXzcyMHAubXA0IiB0eXBlPSJ2aWRlby9tcDQiPg0KPC92aWRlbz4=