Alat SEO

Penguji Robots.txt

Tempelkan konten robots.txt Anda dan uji apakah jalur URL tertentu diizinkan atau diblokir untuk berbagai bot mesin pencari.

Pengujian Instan

Tempelkan robots.txt Anda dan uji jalur URL segera. Lihat hasilnya secara real-time saat Anda mengetik.

Dukungan Bot Ganda

Uji terhadap Googlebot, Bingbot, dan crawler populer lainnya. Lihat dengan tepat bagaimana setiap bot menginterpretasikan aturan Anda.

100% Sisi Klien

Semua pemrosesan dan pengujian terjadi di browser Anda. Konten robots.txt Anda tidak pernah meninggalkan perangkat Anda.

Memahami Robots.txt

File robots.txt adalah standar yang digunakan oleh situs web untuk berkomunikasi dengan crawler mesin pencari dan robot web lainnya. Ini memberi tahu bot bagian mana dari situs Anda yang dapat dan tidak dapat mereka akses.

Apa itu robots.txt?

Robots.txt adalah file teks biasa yang ditempatkan di root situs web Anda (mis., contoh.com/robots.txt) yang mengikuti Protokol Pengecualian Robots. Ini berisi aturan yang memberi tahu crawler URL mana yang dapat mereka akses di situs Anda.

Cara Menggunakan Alat Ini

Tempelkan konten robots.txt Anda ke area teks (atau ambil dari domain), masukkan jalur URL yang ingin Anda uji, pilih user-agent, dan klik 'Uji URL'. Alat ini akan segera memberi tahu Anda apakah jalur tersebut diizinkan atau diblokir.

Mengapa Menguji Robots.txt Anda?

  • Mencegah pemblokiran halaman penting secara tidak sengaja dari mesin pencari
  • Memastikan halaman pribadi atau admin tersembunyi dengan baik dari crawler
  • Memperbaiki masalah crawling sebelum mempengaruhi peringkat pencarian Anda
  • Memvalidasi perubahan sebelum diterapkan ke produksi

Privasi Dijamin

Alat ini berjalan sepenuhnya di browser Anda. Konten robots.txt Anda dan URL uji tidak pernah dikirim ke server mana pun. Sempurna untuk menguji aturan yang mengandung jalur sensitif.

Pertanyaan yang Sering Diajukan

Bagaimana cara kerja pencocokan robots.txt?
Robots.txt menggunakan pencocokan awalan jalur. Aturan seperti 'Disallow: /admin/' memblokir semua URL yang dimulai dengan '/admin/'. Karakter wildcard (*) dapat digunakan untuk pencocokan pola, dan tanda dolar ($) mengaitkan pencocokan ke akhir URL.
Apa yang lebih diutamakan: Allow atau Disallow?
Ketika baik aturan Allow maupun Disallow cocok dengan URL, aturan yang paling spesifik (terpanjang) yang menang. Jika panjangnya sama, Allow lebih diutamakan. Ini mengikuti interpretasi standar Google.
Apakah robots.txt mencegah halaman diindeks?
Tidak, robots.txt hanya mengontrol crawling, bukan pengindeksan. Halaman yang diblokir oleh robots.txt masih dapat muncul dalam hasil pencarian jika halaman lain menautkannya. Gunakan tag meta 'noindex' untuk mencegah pengindeksan.
Apa yang terjadi jika tidak ada robots.txt?
Jika tidak ada file robots.txt, crawler menganggap mereka dapat mengakses semua bagian situs Anda. Ini adalah perilaku default untuk bot yang berperilaku baik.
Bisakah saya menguji aturan wildcard?
Ya, alat ini mendukung pencocokan wildcard (*) dan pengikatan akhir URL ($) seperti yang digunakan oleh Google dan mesin pencari besar lainnya.