gpt4 book ai didi

Wordpress 虚拟 robots.txt 覆盖手动创建的 robots.txt

转载 作者:塔克拉玛干 更新时间:2023-11-03 02:31:58 25 4
gpt4 key购买 nike

我正在使用 WP 3.9 安装在一个运行冲动新闻主题的 Godaddy WP 托管托管计划上。我没有阻止搜索引擎将此网站编入索引。

就 SEO 插件而言,我只安装了 Yoast SEO 插件。 robots.txt 文件可在 YOAST SEO 插件的编辑文件下进行编辑。如果您访问网站 http://260.303.myftpupload.com/robots.txt您可以看到 robots.txt 正在生成为:

User-agent: *
Disallow: /

在 YOAST 插件中,它显示 robots.txt 为:

User-agent: *
Crawl-delay: 1
Disallow: /wp-content/plugins/
Disallow: /wp-includes/
Disallow: /wp-admin/
Disallow: /wp-admin

我可以通过 FTP 查看文件,并可以验证 robots.txt 文件是否存在于服务器上并且与 Yoast 插件中显示的内容相匹配。

WP 虚拟文件似乎覆盖了手动创建的 robots.txt 文件。我已经删除了文件并通过 Yoast 生成了它。我已经删除文件并直接通过FTP上传。无论哪种方式http://260.303.myftpupload.com/robots.txt只显示:

User-agent: *
Disallow: /

请帮忙!

最佳答案

在我们将 WordPress 托管托管从临时 URL 移动到实时 url 后,robots.txt 正确反射(reflect)。我认为 godaddy 在他们的服务器上有一个覆盖 robots.txt 的功能,用于所有使用临时 url 的托管计划。

关于Wordpress 虚拟 robots.txt 覆盖手动创建的 robots.txt,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23555236/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com