Robots.txt 生成器
可视化配置您的网站爬虫协议。 支持多 User-Agent 规则、一键屏蔽 AI 抓取、即时预览与下载。
规则配置
使用 * 代表所有爬虫。或输入特定爬虫名如 Googlebot。
每行一个路径。以 / 开头。
用于覆盖禁止规则中的特例。
告诉搜索引擎您的站点地图位置,加速收录。
文件预览: robots.txt
Robots.txt 语法参考
User-agent: *
匹配所有爬虫。通常放在文件的开头或特定规则之后作为默认规则。
Disallow: /private/
禁止爬虫访问 /private/ 目录下的所有文件。
Allow: /private/image.jpg
即使父目录被禁止,也允许访问特定的文件。Allow 的优先级通常高于 Disallow。
Sitemap: URL
指定站点地图的位置,帮助爬虫更快地发现网站上的所有链接。
常见问题 FAQ
Robots.txt 必须要有吗?
虽然不是强制的,但强烈建议拥有。如果没有这个文件,爬虫会默认您的网站所有内容都是可以随意抓取和收录的,这可能导致后台页面、重复内容被搜索引擎收录,影响 SEO 排名。
我不懂代码,能用这个生成的直接上传吗?
完全可以!我们的生成器遵循标准的爬虫协议。如果您是普通的个人网站或企业官网,直接使用“默认允许所有”并添加 Sitemap 即可。
如何屏蔽 ChatGPT 抓取我的内容?
在右侧点击“屏蔽 AI 爬虫”按钮即可。它会自动添加针对 GPTBot (OpenAI)、CCBot (Common Crawl) 等常见 AI 数据采集器的禁止规则。