एसईओ उपकरण

रोबोट्स.txt परीक्षणकर्ता

अपने रोबोट्स.txt सामग्री को पेस्ट करें और जांचें कि क्या विशिष्ट यूआरएल पथ विभिन्न खोज इंजन बॉट्स के लिए अनुमति दी गई है या अवरुद्ध है।

तत्काल परीक्षण

अपने रोबोट्स.txt को पेस्ट करें और तुरंत यूआरएल पथों का परीक्षण करें। जैसे ही आप टाइप करते हैं, वास्तविक समय में परिणाम देखें।

कई बॉट समर्थन

Googlebot, Bingbot और अन्य लोकप्रिय क्रॉलर के खिलाफ परीक्षण करें। देखें कि प्रत्येक बॉट आपके नियमों को कैसे व्याख्या करता है।

100% क्लाइंट-साइड

सभी पार्सिंग और परीक्षण आपके ब्राउज़र में होते हैं। आपकी रोबोट्स.txt सामग्री कभी भी आपके डिवाइस से बाहर नहीं जाती।

रोबोट्स.txt को समझना

रोबोट्स.txt फ़ाइल एक मानक है जिसका उपयोग वेबसाइटें खोज इंजन क्रॉलर और अन्य वेब रोबोट के साथ संवाद करने के लिए करती हैं। यह बॉट्स को बताता है कि आपकी साइट के कौन से भागों तक वे पहुंच सकते हैं और नहीं पहुंच सकते।

रोबोट्स.txt क्या है?

रोबोट्स.txt एक साधारण पाठ फ़ाइल है जो आपकी वेबसाइट की जड़ में रखी जाती है (जैसे, example.com/robots.txt) जो रोबोट्स बहिष्करण प्रोटोकॉल का पालन करती है। इसमें नियम होते हैं जो क्रॉलर को बताते हैं कि वे आपकी साइट पर किन यूआरएल तक पहुंच सकते हैं।

इस उपकरण का उपयोग कैसे करें

अपने रोबोट्स.txt सामग्री को टेक्स्ट क्षेत्र में पेस्ट करें (या इसे एक डोमेन से लाएँ), एक यूआरएल पथ दर्ज करें जिसे आप परीक्षण करना चाहते हैं, एक उपयोगकर्ता-एजेंट चुनें, और 'यूआरएल का परीक्षण करें' पर क्लिक करें। उपकरण तुरंत आपको बताएगा कि पथ अनुमति दी गई है या अवरुद्ध है।

अपने रोबोट्स.txt का परीक्षण क्यों करें?

  • महत्वपूर्ण पृष्ठों को खोज इंजनों से गलती से अवरुद्ध करने से रोकें
  • सुनिश्चित करें कि निजी या प्रशासनिक पृष्ठ क्रॉलर्स से सही तरीके से छिपे हुए हैं
  • क्रॉलिंग समस्याओं को ठीक करें इससे पहले कि वे आपके खोज रैंकिंग पर प्रभाव डालें
  • उत्पादन में तैनात करने से पहले परिवर्तनों को मान्य करें

गोपनीयता की गारंटी

यह उपकरण पूरी तरह से आपके ब्राउज़र में चलता है। आपकी रोबोट्स.txt सामग्री और परीक्षण यूआरएल कभी भी किसी सर्वर पर नहीं भेजे जाते। संवेदनशील पथों वाले नियमों का परीक्षण करने के लिए बिल्कुल सही।

अक्सर पूछे जाने वाले प्रश्न

रोबोट्स.txt मिलान कैसे काम करता है?
रोबोट्स.txt पथ पूर्ववर्ती मिलान का उपयोग करता है। 'अवरुद्ध: /admin/' जैसे नियम सभी यूआरएल को अवरुद्ध करता है जो '/admin/' से शुरू होते हैं। पैटर्न मिलान के लिए वाइल्डकार्ड (*) का उपयोग किया जा सकता है, और डॉलर साइन ($) एक यूआरएल के अंत में मिलान को एंकर करता है।
क्या प्राथमिकता लेता है: अनुमति या अवरुद्ध?
जब अनुमति और अवरुद्ध दोनों नियम एक यूआरएल से मेल खाते हैं, तो सबसे विशिष्ट (सबसे लंबा) नियम जीतता है। यदि वे समान लंबाई के हैं, तो अनुमति प्राथमिकता लेती है। यह मानक Google व्याख्या का पालन करता है।
क्या रोबोट्स.txt पृष्ठों को अनुक्रमित होने से रोकता है?
नहीं, रोबोट्स.txt केवल क्रॉलिंग को नियंत्रित करता है, अनुक्रमण को नहीं। एक पृष्ठ जो रोबोट्स.txt द्वारा अवरुद्ध है, वह खोज परिणामों में तब भी दिखाई दे सकता है यदि अन्य पृष्ठों से लिंक किया गया हो। अनुक्रमण को रोकने के लिए 'noindex' मेटा टैग का उपयोग करें।
अगर कोई रोबोट्स.txt नहीं है तो क्या होता है?
यदि कोई रोबोट्स.txt फ़ाइल मौजूद नहीं है, तो क्रॉलर मानते हैं कि वे आपकी साइट के सभी भागों तक पहुंच सकते हैं। यह अच्छे बॉट्स के लिए डिफ़ॉल्ट व्यवहार है।
क्या मैं वाइल्डकार्ड नियमों का परीक्षण कर सकता हूँ?
हाँ, यह उपकरण वाइल्डकार्ड (*) मिलान और यूआरएल के अंत में एंकरिंग ($) का समर्थन करता है जैसा कि Google और अन्य प्रमुख खोज इंजनों द्वारा उपयोग किया जाता है।