SEO 工具

Robots.txt 测试工具

粘贴您的 robots.txt 内容,测试特定 URL 路径是否被不同的搜索引擎爬虫允许或阻止。

即时测试

粘贴您的 robots.txt 并立即测试 URL 路径。输入时实时查看结果。

多爬虫支持

针对 Googlebot、Bingbot 和其他流行爬虫进行测试。准确查看每个爬虫如何解释您的规则。

100% 客户端

所有解析和测试都在您的浏览器中进行。您的 robots.txt 内容永远不会离开您的设备。

理解 Robots.txt

robots.txt 文件是网站与搜索引擎爬虫和其他网络机器人沟通的标准。它告诉机器人您网站的哪些部分可以访问,哪些部分不能访问。

什么是 robots.txt?

Robots.txt 是放置在您网站根目录的纯文本文件(例如,example.com/robots.txt),遵循机器人排除协议。它包含规则,告诉爬虫可以访问您网站上的哪些 URL。

如何使用此工具

将您的 robots.txt 内容粘贴到文本区域(或从域名获取),输入您想要测试的 URL 路径,选择用户代理,然后点击 '测试 URL'。该工具将立即告诉您该路径是否被允许或阻止。

为什么要测试您的 Robots.txt?

  • 防止意外阻止重要页面被搜索引擎索引
  • 确保私密或管理页面正确隐藏不被爬虫访问
  • 在影响搜索排名之前调试爬虫问题
  • 在部署到生产环境之前验证更改

隐私保障

此工具完全在您的浏览器中运行。您的 robots.txt 内容和测试 URL 永远不会发送到任何服务器。非常适合测试包含敏感路径的规则。

常见问题

robots.txt 匹配是如何工作的?
Robots.txt 使用路径前缀匹配。像 '不允许: /admin/' 的规则会阻止所有以 '/admin/' 开头的 URL。可以使用通配符 (*) 进行模式匹配,美元符号 ($) 将匹配锚定到 URL 的末尾。
允许和不允许哪个优先?
当允许和不允许规则都匹配一个 URL 时,最具体(最长)的规则优先。如果它们长度相同,则允许优先。这遵循标准的 Google 解释。
robots.txt 是否会阻止页面被索引?
不,robots.txt 只控制爬虫,不控制索引。被 robots.txt 阻止的页面仍然可以出现在搜索结果中,只要其他页面链接到它。使用 'noindex' 元标签来防止索引。
如果没有 robots.txt 会发生什么?
如果不存在 robots.txt 文件,爬虫会假设它们可以访问您网站的所有部分。这是行为良好的机器人的默认行为。
我可以测试通配符规则吗?
是的,此工具支持通配符 (*) 匹配和 URL 末尾锚定 ($),如 Google 和其他主要搜索引擎所使用。