gpt4 book ai didi

Robots.txt 禁止一切,只允许网站/页面的特定部分。 Ultraseek 和 FAST 等爬虫支持 "allow"吗?

转载 作者:行者123 更新时间:2023-12-05 00:09:29 24 4
gpt4 key购买 nike

只是想知道是否可以禁止整个网站供爬虫使用并仅允许特定网页或部分?
FAST 和 Ultraseek 等爬虫支持“允许”吗?

最佳答案

有一个Allow Directive但是不能保证特定的机器人会支持它(就像不能保证机器人甚至会检查您的 robots.txt 一样)。您可能可以通过检查您的博客来判断特定机器人是否仅对您允许的网站部分进行索引。

仅允许您网站的特定页面或部分的格式可能如下所示:

Allow: /public/section1/
Disallow: /

这(应该)防止机器人抓取或索引除/public/section1 下的内容之外的任何内容

关于Robots.txt 禁止一切,只允许网站/页面的特定部分。 Ultraseek 和 FAST 等爬虫支持 "allow"吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/393539/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com