gpt4 book ai didi

robots.txt - 如何禁止 robots.txt 中的多个文件夹

转载 作者:行者123 更新时间:2023-12-02 16:02:29 26 4
gpt4 key购买 nike

我想禁止机器人抓取任何文件夹/子文件夹。

我想禁止 ff:

http://example.com/staging/
http://example.com/test/

这是我的 robots.txt 中的代码

User-agent: *
Disallow: /staging/
Disallow: /test/

这样对吗?它会起作用吗?

最佳答案

是的,没错!您必须逐行向每个路径添加命令 Disallow

像这样:

User-agent: *
Disallow: /cgi-bin/
Disallow: /img/
Disallow: /docs/

一个好的技巧是使用一些 Robot.txt Generator .另一个提示是 test your Robot.txt using this Google Tool

关于robots.txt - 如何禁止 robots.txt 中的多个文件夹,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/70255571/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com