使用我们的可视化生成器在几秒钟内创建一个格式完美的 robots.txt 文件,或者验证您现有的文件是否存在可能悄悄阻止 Google 访问您网站的错误。
Used to auto-fill the Sitemap URL.
# Loading preview…
测试这些规则是否允许或阻止特定 URL。
一个 机器人.txt 文件 是放置在您网站根目录下的纯文本文件(例如 https://yoursite.com/robots.txt)。它指示搜索引擎抓取工具(例如 Googlebot)应该或不应该抓取网站的哪些页面或部分并建立索引。
虽然 robots.txt 不能保证隐私(如果从其他网站链接到,被阻止的页面仍然会出现在搜索结果中),但它是管理的主要工具 抓取预算 — Google 每天会浏览您网站的多少内容。正确使用,它可以帮助 Google 将抓取重点放在对您的排名真正重要的页面上。
特别是对于 WordPress 网站,配置良好的 robots.txt 可以防止 Googlebot 在管理页面、登录屏幕和内部搜索结果上浪费时间,而是将抓取预算用于您的内容。
# Allow all crawlers, block admin User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php # Block bad bots entirely User-agent: AhrefsBot Disallow: / # Sitemap location Sitemap: https://yoursite.com/sitemap.xml
默认情况下,WordPress 不会创建 robots.txt。以下正是为了实现最佳 SEO 而添加的内容。
选择上面的“WordPress”模板,输入您的网站 URL,您的 robots.txt 将立即生成,并预先填充所有正确的规则。
下载生成的 robots.txt 文件,并使用 FTP、cPanel 文件管理器或主机的文件管理器将其上传到站点的根目录。
Yoast SEO 和 Rank Math 都有一个内置的 robots.txt 编辑器,位于 SEO → 工具 → 文件编辑器下。直接将生成的内容粘贴到那里。
专业提示:每次更改后进行验证
上传或编辑 robots.txt 后,请务必通过我们上面的验证器运行它以检查是否有错误。一个拼写错误——比如 Disallow: / — 可以在一夜之间阻止 Google 访问您的整个网站。
这些是我们的验证器捕获的最常见错误,也是最有可能悄悄降低您的 Google 排名的错误。
一个 Disallow: / 在下面 User-agent: * 阻止 Googlebot 访问您的整个网站。这是一个最具灾难性的 robots.txt 错误,而且在网站构建过程中这种错误发生的频率比您想象的要高。
不允许 /wp-content/ 阻止 Google 加载您的样式表和脚本。 Google 像浏览器一样呈现页面 - 如果它无法加载 CSS/JS,它就无法正确评估您的内容进行排名。
不包括 Sitemap: 指令意味着 Google 必须仅通过 Search Console 提交来发现您的站点地图。将其添加到 robots.txt 是一个简单的胜利,可以帮助 Googlebot 更快地找到您的所有网页。
Robots.txt 路径在 Linux 服务器上区分大小写。 Disallow: /Admin/ 不阻塞 /admin/。始终使用与实际 URL 路径完全相同的大小写。
修复整个网站的 SEO
一旦您的 robots.txt 允许 Google 抓取您的网站,请确保每个页面都得到优化。 SkySEOManager Pro 在整个 WordPress 网站上批量生成标题、元描述和图像替代文本 — 由 Gemini AI 提供支持。
Disallow: /wp-admin/ 防止爬虫在没有 SEO 价值的管理页面上浪费您的爬行预算。但是,请确保添加 Allow: /wp-admin/admin-ajax.php 在下一行,以保持 AJAX 相关功能(如 WooCommerce 购物车更新)正常工作。永远免费。无需帐户。您的 robots.txt 将在 30 秒内准备就绪。