gpt4 book ai didi

web-crawler - 提交的 URL 被 robots.txt 阻止

转载 作者:塔克拉玛干 更新时间:2023-11-03 02:48:48 26 4
gpt4 key购买 nike

在过去的几周里,Google 一直在报告 Search Console 中的一个错误。越来越多的我的页面不允许抓取 - 覆盖率报告说:提交的 URL 被 robots.txt 阻止。

如您所见,我的 robots.txt 非常简单,为什么大约 20% 的页面会出现此错误,我迷失了......

User-agent: *
Disallow: /cgi-bin/
Allow: /
Sitemap: https://www.theartstory.org/sitemapindex.xml
Host: https://www.theartstory.org

显示错误的示例页面:

https://www.theartstory.org/movement-fauvism-artworks.htm

https://www.theartstory.org/artist-hassam-childe-life-and-legacy.htm

最佳答案

您的 robots.txt 文件配置不正确。你应该只需要:

User-agent: *
Crawl-delay: 40
Disallow: /cgi-bin/

Sitemap: https://www.theartstory.org/sitemapindex.xml

为您的 robots.txt 提交该文件并再次尝试抓取。

关于web-crawler - 提交的 URL 被 robots.txt 阻止,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53742900/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com