निःशुल्क · कोई साइन-अप नहीं · त्वरित परिणाम

मुफ़्त रोबोट.txt जनरेटर एवं सत्यापनकर्ता

हमारे विज़ुअल बिल्डर के साथ सेकंडों में एक पूरी तरह से स्वरूपित robots.txt फ़ाइल बनाएं - या गलतियों के लिए अपनी मौजूदा फ़ाइल को सत्यापित करें जो Google को आपकी साइट से चुपचाप ब्लॉक कर सकती है।

Build Your Robots.txt

Used to auto-fill the Sitemap URL.

Live Preview

robots.txt
# Loading preview…
0 lines
0 bytes
मूल बातें

रोबोट्स.txt फ़ाइल क्या है?

robots.txt फ़ाइल आपकी वेबसाइट के मूल में रखी गई एक सादा-पाठ फ़ाइल है (उदा. https://yoursite.com/robots.txt). यह खोज इंजन क्रॉलर्स को निर्देश देता है - जैसे कि Googlebot - आपकी साइट के किन पेजों या अनुभागों को उन्हें क्रॉल और अनुक्रमित करना चाहिए या नहीं करना चाहिए।

जबकि robots.txt गोपनीयता की गारंटी नहीं देता है (अवरुद्ध पृष्ठ अन्य साइटों से लिंक होने पर भी खोज परिणामों में दिखाई दे सकते हैं), यह प्रबंधन के लिए प्राथमिक उपकरण है क्रॉल बजट — Google प्रतिदिन आपकी कितनी साइट एक्सप्लोर करता है। सही तरीके से इस्तेमाल करने पर, यह Google को उन पेजों पर अपना ध्यान केंद्रित करने में मदद करता है जो वास्तव में आपकी रैंकिंग के लिए मायने रखते हैं।

विशेष रूप से वर्डप्रेस साइटों के लिए, एक अच्छी तरह से कॉन्फ़िगर किया गया robots.txt Googlebot को व्यवस्थापक पृष्ठों, लॉगिन स्क्रीन और आंतरिक खोज परिणामों पर समय बर्बाद करने से रोकता है - इसके बजाय उस क्रॉल बजट को आपकी सामग्री की ओर निर्देशित करता है।

उदाहरण robots.txt
# Allow all crawlers, block admin
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

# Block bad bots entirely
User-agent: AhrefsBot
Disallow: /

# Sitemap location
Sitemap: https://yoursite.com/sitemap.xml
वर्डप्रेस गाइड

वर्डप्रेस के लिए robots.txt कैसे बनाएं

वर्डप्रेस डिफ़ॉल्ट रूप से robots.txt नहीं बनाता है। यहां बताया गया है कि इष्टतम एसईओ के लिए वास्तव में क्या जोड़ना है।

1

उपरोक्त जेनरेटर का उपयोग करें

ऊपर दिए गए "वर्डप्रेस" टेम्पलेट का चयन करें, अपनी साइट का यूआरएल दर्ज करें, और आपका robots.txt सभी सही नियमों के साथ तुरंत तैयार हो जाएगा।

2

FTP या cPanel के माध्यम से अपलोड करें

जेनरेट की गई robots.txt फ़ाइल डाउनलोड करें और इसे FTP, cPanel फ़ाइल प्रबंधक, या अपने होस्ट के फ़ाइल प्रबंधक का उपयोग करके अपनी साइट की रूट निर्देशिका पर अपलोड करें।

3

या योस्ट/रैंक गणित का प्रयोग करें

योस्ट एसईओ और रैंक मैथ दोनों में एसईओ → टूल्स → फाइल एडिटर के तहत एक अंतर्निहित robots.txt संपादक है। अपनी जेनरेट की गई सामग्री को सीधे वहां पेस्ट करें।

💡

प्रो टिप: प्रत्येक परिवर्तन के बाद सत्यापन करें

अपने robots.txt को अपलोड या संपादित करने के बाद, गलतियों की जांच के लिए इसे हमेशा ऊपर दिए गए हमारे सत्यापनकर्ता के माध्यम से चलाएं। एक भी टाइपो - जैसे Disallow: / — आपकी पूरी साइट को रातोंरात Google से ब्लॉक कर सकता है।

इन त्रुटियों से बचें

सामान्य robots.txt गलतियाँ जो आपके SEO को नुकसान पहुँचाती हैं

ये सबसे आम त्रुटियां हैं जिन्हें हमारा सत्यापनकर्ता पकड़ता है - और ये आपकी Google रैंकिंग को चुपचाप खत्म कर सकती हैं।

🔴

अस्वीकृत: / (हर चीज़ को अवरुद्ध करता है)

Disallow: / अंतर्गत User-agent: * Googlebot को आपकी संपूर्ण साइट से ब्लॉक कर देता है. यह सबसे भयावह robots.txt गलती है - और यह साइट निर्माण के दौरान आपकी सोच से कहीं अधिक बार घटित होती है।

🟡

सीएसएस और जावास्क्रिप्ट फ़ाइलों को अवरुद्ध करना

अनुमति नहीं दी जाएगी /wp-content/ Google को आपकी स्टाइलशीट और स्क्रिप्ट लोड करने से रोकता है। Google पृष्ठों को एक ब्राउज़र की तरह प्रस्तुत करता है - यदि यह CSS/JS लोड नहीं कर सकता है, तो यह रैंकिंग के लिए आपकी सामग्री का उचित मूल्यांकन नहीं कर सकता है।

🟡

गुम साइटमैप निर्देश

ए शामिल नहीं है Sitemap: निर्देश का अर्थ है कि Google को केवल सर्च कंसोल सबमिशन के माध्यम से आपका साइटमैप खोजना होगा। इसे robots.txt में जोड़ना एक आसान जीत है जो Googlebot को आपके सभी पेज तेज़ी से ढूंढने में मदद करता है।

ℹ️

केस-संवेदी पथ त्रुटियाँ

Linux सर्वर पर robots.txt पथ केस-संवेदी होते हैं। Disallow: /Admin/ ब्लॉक नहीं करता /admin/. हमेशा अपने वास्तविक यूआरएल पथों के सटीक मामले का उपयोग करें।

अपनी संपूर्ण साइट का SEO ठीक करें

आपका robots.txt तो बस शुरुआत है।
स्काईएसईओमैनेजर प्रो के साथ हर पेज का एसईओ ठीक करें।

एक बार जब आपका robots.txt Google को आपकी साइट क्रॉल करने की अनुमति देता है, तो सुनिश्चित करें कि प्रत्येक पृष्ठ अनुकूलित है। स्काईएसईओमैनेजर प्रो आपकी संपूर्ण वर्डप्रेस साइट पर बड़े पैमाने पर शीर्षक, मेटा विवरण और इमेज ऑल्ट टेक्स्ट उत्पन्न करता है - जेमिनी एआई द्वारा संचालित।

अक्सर पूछे जाने वाले प्रश्नों

क्या SEO के लिए robots.txt फ़ाइल आवश्यक है?
नहीं, robots.txt फ़ाइल की आवश्यकता नहीं है। यदि Google को आपके डोमेन रूट पर कोई robots.txt नहीं मिलता है, तो वह इसे "हर चीज़ की अनुमति दें" मानता है और आपकी पूरी साइट को स्वतंत्र रूप से क्रॉल करता है। हालाँकि, अधिकांश साइटों के लिए इसे बनाने की पुरजोर अनुशंसा की जाती है ताकि आप व्यवस्थापक पृष्ठों, लॉगिन पृष्ठों और डुप्लिकेट सामग्री को क्रॉल होने से स्पष्ट रूप से रोक सकें।
क्या robots.txt मेरे पृष्ठों को Google में प्रदर्शित होने से रोकेगा?
robots.txt में किसी URL को ब्लॉक करना Googlebot को रोकता है क्रॉलिंग यह, लेकिन इसकी गारंटी नहीं है कि ऐसा नहीं होगा के जैसा लगना खोज परिणामों में. यदि अन्य साइटें किसी अवरुद्ध URL से लिंक करती हैं, तो Google इसे "कोई जानकारी उपलब्ध नहीं" विवरण के साथ परिणामों में दिखा सकता है। किसी पृष्ठ को Google में प्रदर्शित होने से पूरी तरह से रोकने के लिए, इसके बजाय नोइंडेक्स मेटा टैग का उपयोग करें।
क्या Google क्रॉल-विलंब निर्देश का पालन करता है?
नहीं - Google क्रॉल-विलंब निर्देश को स्पष्ट रूप से अनदेखा करता है। यह आपके सर्वर के लिए क्रॉल दर को प्रबंधित करने के लिए अपने स्वयं के आंतरिक संकेतों का उपयोग करता है। क्रॉल-विलंब का बिंगबॉट और यांडेक्स जैसे कुछ अन्य बॉट्स द्वारा सम्मान किया जाता है, लेकिन Googlebot पर इसका कोई प्रभाव नहीं पड़ता है।
Google कितनी बार मेरी robots.txt को दोबारा पढ़ता है?
Google आमतौर पर हर 24 घंटे में robots.txt फ़ाइलों को कैश करता है और दोबारा पढ़ता है। यदि आप कोई परिवर्तन करते हैं जिसे आप चाहते हैं कि Google शीघ्रता से उठाए (जैसे नोइंडेक्स या अस्वीकृत नियम को हटाना), तो आप Google खोज कंसोल → सेटिंग्स → क्रॉल आँकड़े के माध्यम से तेजी से पुनः क्रॉलिंग का अनुरोध कर सकते हैं।
क्या मुझे अपनी /wp-admin/ निर्देशिका को ब्लॉक कर देना चाहिए?
हाँ। जोड़ा जा रहा है Disallow: /wp-admin/ क्रॉलर्स को आपके क्रॉल बजट को उन व्यवस्थापक पृष्ठों पर बर्बाद करने से रोकता है जिनका कोई एसईओ मूल्य नहीं है। हालाँकि, जोड़ना सुनिश्चित करें Allow: /wp-admin/admin-ajax.php AJAX-निर्भर सुविधाओं (जैसे WooCommerce कार्ट अपडेट) को सही ढंग से काम करने के लिए अगली पंक्ति पर।

अभी अपना robots.txt बनाएं या जांचें

हमेशा के लिए मुफ़्त. किसी खाते की आवश्यकता नहीं. आपका robots.txt 30 सेकंड में तैयार हो जाएगा।