gpt4 book ai didi

search - 如何阻止所有搜索引擎、机器人抓取某些网址

转载 作者:行者123 更新时间:2023-12-02 06:38:14 25 4
gpt4 key购买 nike

我想计算小部件上的广告点击次数。

我在 robots.txt 文件上使用过:

User-agent: *
Allow: /
Disallow: */ads_count/*

我还为该小部件中的所有链接添加了 nofollow

但是许多机器人仍然跟踪该小部件中的网址。我已经获取客户端 IP 来计算 url,并且我有很多 IP 表单机器人。

最佳答案

您是否尝试删除 */ads_count 之前的 (*)?正如谷歌 SEO 文档所说,如果您想阻止所有机器人,就像您所做的那样:

User-agent: * // (to whom? (*) means all bots!
Disallow: /ads_count

Note that directives are case-sensitive. For instance, Disallow: /junk_file.asp would block http://www.example.com/junk_file.asp, but would allow http://www.example.com/Junk_file.asp. Googlebot will ignore white-space (in particular empty lines)and unknown directives in the robots.txt.

关于search - 如何阻止所有搜索引擎、机器人抓取某些网址,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13700663/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com