SEO Eszköz

Robots.txt Tesztelő

Illeszd be a robots.txt tartalmadat, és teszteld, hogy a konkrét URL-útvonalak engedélyezettek vagy blokkoltak-e a különböző keresőmotorok botjai számára.

Azonnali Tesztelés

Illeszd be a robots.txt-t, és azonnal teszteld az URL-útvonalakat. Lásd az eredményeket valós időben, ahogy gépelsz.

Több Bot Támogatás

Tesztelj a Googlebot, Bingbot és más népszerű mászók ellen. Lásd pontosan, hogyan értelmezi minden bot a szabályaidat.

100% Klienstől

Minden elemzés és tesztelés a böngésződben történik. A robots.txt tartalmad soha nem hagyja el az eszközödet.

A Robots.txt Megértése

A robots.txt fájl egy szabvány, amelyet a weboldalak használnak a keresőmotorok mászóival és más webrobotokkal való kommunikációra. Megmondja a botoknak, hogy a webhelyed mely részeihez férhetnek hozzá és melyekhez nem.

Mi az a robots.txt?

A robots.txt egy sima szövegfájl, amely a webhelyed gyökerében található (pl. example.com/robots.txt), és követi a Robots Exclusion Protocol-t. Olyan szabályokat tartalmaz, amelyek megmondják a mászóknak, hogy mely URL-ekhez férhetnek hozzá a webhelyeden.

Hogyan Használjuk Ezt az Eszközt

Illeszd be a robots.txt tartalmadat a szövegterületbe (vagy töltsd be egy domainről), add meg a tesztelni kívánt URL-útvonalat, válassz egy user-agentet, és kattints a 'URL Tesztelése' gombra. Az eszköz azonnal megmondja, hogy az útvonal engedélyezett vagy blokkolt.

Miért Teszteld a Robots.txt-t?

  • Megakadályozd, hogy véletlenül blokkolj fontos oldalakat a keresőmotorok elől
  • Biztosítsd, hogy a privát vagy admin oldalak megfelelően el legyenek rejtve a mászók elől
  • Hibakeresd a mászási problémákat, mielőtt hatással lennének a keresési rangsorodra
  • Érvényesítsd a változtatásokat, mielőtt élesbe állítanád

Adatvédelem Garantálva

Ez az eszköz teljesen a böngésződben fut. A robots.txt tartalmad és a teszt URL-ek soha nem kerülnek elküldésre egyetlen szerverre sem. Tökéletes érzékeny útvonalakat tartalmazó szabályok tesztelésére.

Gyakran Ismételt Kérdések

Hogyan működik a robots.txt egyeztetés?
A robots.txt útvonal előtag egyeztetést használ. Egy olyan szabály, mint a 'Disallow: /admin/', blokkolja az összes URL-t, amely '/admin/'-nal kezdődik. A joker (*) használható mintázat egyeztetésére, és a dollárjel ($) az URL végéhez rögzíti az egyezést.
Mi élvez prioritást: Engedélyezés vagy Blokkolás?
Ha mind az Engedélyezés, mind a Blokkolás szabályok egyeznek egy URL-lel, a legspecifikusabb (leghosszabb) szabály nyer. Ha ugyanakkora hosszúságúak, az Engedélyezés élvez prioritást. Ez követi a Google szabványos értelmezését.
Megakadályozza a robots.txt, hogy az oldalakat indexeljék?
Nem, a robots.txt csak a mászást szabályozza, nem az indexelést. Egy robots.txt által blokkolt oldal még mindig megjelenhet a keresési eredmények között, ha más oldalak hivatkoznak rá. Használj 'noindex' meta taget az indexelés megakadályozásához.
Mi történik, ha nincs robots.txt?
Ha nincs robots.txt fájl, a mászók azt feltételezik, hogy hozzáférhetnek a webhelyed minden részéhez. Ez a jól viselkedő botok alapértelmezett viselkedése.
Tesztelhetek joker szabályokat?
Igen, ez az eszköz támogatja a joker (*) egyeztetést és az URL végéhez rögzítést ($), ahogyan azt a Google és más nagy keresőmotorok használják.