Narzędzie SEO

Tester robots.txt

Wklej zawartość swojego pliku robots.txt i przetestuj, czy konkretne ścieżki URL są dozwolone lub zablokowane dla różnych robotów wyszukiwarek.

Natychmiastowe testowanie

Wklej swój plik robots.txt i natychmiast przetestuj ścieżki URL. Zobacz wyniki w czasie rzeczywistym podczas pisania.

Wsparcie dla wielu robotów

Testuj przeciwko Googlebot, Bingbot i innym popularnym robotom. Zobacz dokładnie, jak każdy robot interpretuje twoje zasady.

100% po stronie klienta

Wszystkie analizy i testy odbywają się w twojej przeglądarce. Zawartość twojego pliku robots.txt nigdy nie opuszcza twojego urządzenia.

Zrozumienie robots.txt

Plik robots.txt to standard używany przez strony internetowe do komunikacji z robotami wyszukiwarek i innymi robotami internetowymi. Informuje roboty, które części twojej witryny mogą i nie mogą być dostępne.

Czym jest robots.txt?

Robots.txt to plik tekstowy umieszczony w katalogu głównym twojej witryny (np. przykład.com/robots.txt), który przestrzega Protokół Wykluczenia Robotów. Zawiera zasady, które informują roboty, które adresy URL mogą być dostępne na twojej stronie.

Jak korzystać z tego narzędzia

Wklej zawartość swojego pliku robots.txt do obszaru tekstowego (lub pobierz go z domeny), wprowadź ścieżkę URL, którą chcesz przetestować, wybierz user-agenta i kliknij 'Przetestuj URL'. Narzędzie natychmiast powie ci, czy ścieżka jest dozwolona czy zablokowana.

Dlaczego przetestować swój plik robots.txt?

  • Zapobiegaj przypadkowemu zablokowaniu ważnych stron przed wyszukiwarkami
  • Upewnij się, że prywatne lub administracyjne strony są odpowiednio ukryte przed robotami
  • Debuguj problemy z indeksowaniem, zanim wpłyną na twoje pozycje w wyszukiwarkach
  • Waliduj zmiany przed wdrożeniem do produkcji

Prywatność gwarantowana

To narzędzie działa całkowicie w twojej przeglądarce. Zawartość twojego pliku robots.txt i testowe adresy URL nigdy nie są wysyłane na żaden serwer. Idealne do testowania zasad, które zawierają wrażliwe ścieżki.

Najczęściej zadawane pytania

Jak działa dopasowanie robots.txt?
Robots.txt używa dopasowania prefiksu ścieżki. Zasada taka jak 'Disallow: /admin/' blokuje wszystkie adresy URL zaczynające się od '/admin/'. Symbol wieloznaczny (*) może być używany do dopasowywania wzorców, a znak dolara ($) przywiązuje dopasowanie do końca adresu URL.
Co ma pierwszeństwo: Dozwolone czy Zablokowane?
Gdy zarówno zasady Dozwolone, jak i Zablokowane pasują do adresu URL, wygrywa zasada najbardziej szczegółowa (najdłuższa). Jeśli mają tę samą długość, pierwszeństwo ma Dozwolone. To jest zgodne z standardową interpretacją Google.
Czy robots.txt zapobiega indeksowaniu stron?
Nie, robots.txt tylko kontroluje indeksowanie, a nie indeksowanie. Strona zablokowana przez robots.txt może nadal pojawić się w wynikach wyszukiwania, jeśli inne strony do niej linkują. Użyj tagu meta 'noindex', aby zapobiec indeksowaniu.
Co się stanie, jeśli nie ma robots.txt?
Jeśli plik robots.txt nie istnieje, roboty zakładają, że mogą uzyskać dostęp do wszystkich części twojej witryny. To jest domyślne zachowanie dla dobrze zachowujących się robotów.
Czy mogę testować zasady z użyciem symboli wieloznacznych?
Tak, to narzędzie obsługuje dopasowanie symboli wieloznacznych (*) i przywiązywanie do końca adresu URL ($) używane przez Google i inne główne wyszukiwarki.