أنشئ ملف robots.txt منسق بشكل مثالي في ثوانٍ باستخدام أداة الإنشاء المرئي لدينا - أو تحقق من صحة الملف الحالي بحثًا عن الأخطاء التي قد تمنع Google من الوصول إلى موقعك بصمت.
Used to auto-fill the Sitemap URL.
# Loading preview…
اختبر ما إذا كان عنوان URL محددًا مسموحًا به أو محظورًا بموجب هذه القواعد.
أ ملف robots.txt هو ملف نصي عادي يتم وضعه في جذر موقع الويب الخاص بك (على سبيل المثال. https://yoursite.com/robots.txt). فهو يرشد برامج زحف محركات البحث - مثل Googlebot - إلى الصفحات أو الأقسام في موقعك التي ينبغي أو لا ينبغي لها الزحف إليها وفهرستها.
على الرغم من أن ملف robots.txt لا يضمن الخصوصية (يمكن أن تظهر الصفحات المحظورة في نتائج البحث إذا تم ربطها من مواقع أخرى)، إلا أنها الأداة الأساسية لإدارة ميزانية الزحف — مقدار ما يستكشفه Google من موقعك يوميًا. إذا تم استخدامه بشكل صحيح، فإنه يساعد Google على تركيز زحفه على الصفحات التي تهم بالفعل تصنيفاتك.
بالنسبة لمواقع WordPress على وجه التحديد، يمنع ملف robots.txt الذي تمت تهيئته بشكل جيد Googlebot من إضاعة الوقت على صفحات الإدارة وشاشات تسجيل الدخول ونتائج البحث الداخلية، مما يؤدي إلى توجيه ميزانية الزحف نحو المحتوى الخاص بك بدلاً من ذلك.
# Allow all crawlers, block admin User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php # Block bad bots entirely User-agent: AhrefsBot Disallow: / # Sitemap location Sitemap: https://yoursite.com/sitemap.xml
لا يقوم WordPress بإنشاء ملف robots.txt افتراضيًا. إليك بالضبط ما يجب إضافته لتحسين محركات البحث (SEO) الأمثل.
حدد قالب "WordPress" أعلاه، وأدخل عنوان URL لموقعك، وسيتم إنشاء ملف robots.txt الخاص بك على الفور مع ملء جميع القواعد الصحيحة مسبقًا.
قم بتنزيل ملف robots.txt الذي تم إنشاؤه وقم بتحميله إلى الدليل الجذر لموقعك باستخدام FTP أو cPanel File Manager أو مدير الملفات الخاص بمضيفك.
يحتوي كل من Yoast SEO وRank Math على محرر robots.txt مدمج ضمن SEO → Tools → File Editor. الصق المحتوى الذي تم إنشاؤه هناك مباشرة.
نصيحة احترافية: التحقق من صحة البيانات بعد كل تغيير
بعد تحميل ملف robots.txt أو تعديله، قم دائمًا بتشغيله من خلال أداة التحقق أعلاه للتحقق من الأخطاء. خطأ مطبعي واحد - مثل Disallow: / - يمكنه حظر موقعك بالكامل من Google بين عشية وضحاها.
هذه هي الأخطاء الأكثر شيوعًا التي تكتشفها أداة التحقق لدينا - والأخطاء التي من المرجح أن تؤدي إلى إنهاء تصنيفات Google الخاصة بك بهدوء.
أ Disallow: / تحت User-agent: * حظر Googlebot من موقعك بالكامل. هذا هو خطأ ملف robots.txt الأكثر كارثية — ويحدث في كثير من الأحيان أكثر مما كنت تعتقد أثناء إنشاء الموقع.
عدم السماح /wp-content/ يمنع Google من تحميل أوراق الأنماط والبرامج النصية الخاصة بك. يعرض Google الصفحات مثل المتصفح - إذا لم يتمكن من تحميل CSS/JS، فلن يتمكن من تقييم المحتوى الخاص بك بشكل صحيح من أجل التصنيف.
لا يشمل أ Sitemap: التوجيه يعني أنه يتعين على Google اكتشاف خريطة الموقع الخاصة بك من خلال إرسال Search Console فقط. وتعد إضافته إلى ملف robots.txt بمثابة فوز سهل يساعد Googlebot في العثور على جميع صفحاتك بشكل أسرع.
تعد مسارات Robots.txt حساسة لحالة الأحرف على خوادم Linux. Disallow: /Admin/ لا يمنع /admin/. استخدم دائمًا الحالة الدقيقة لمسارات URL الفعلية.
إصلاح SEO لموقعك بالكامل
بمجرد أن يسمح ملف robots.txt لـ Google بالزحف إلى موقعك، تأكد من تحسين كل صفحة. يقوم SkySEOManager Pro بإنشاء العناوين والأوصاف التعريفية والنص البديل للصور بشكل مجمّع عبر موقع WordPress بأكمله - المدعوم من Gemini AI.
Disallow: /wp-admin/ يمنع برامج الزحف من إهدار ميزانية الزحف الخاصة بك على صفحات الإدارة التي ليس لها قيمة لتحسين محركات البحث. ومع ذلك، تأكد من إضافة Allow: /wp-admin/admin-ajax.php في السطر التالي للحفاظ على عمل الميزات المعتمدة على AJAX (مثل تحديثات عربة WooCommerce) بشكل صحيح.مجانا إلى الأبد. لا يوجد حساب مطلوب. ملف robots.txt الخاص بك جاهز خلال 30 ثانية.