gpt4 book ai didi

robots.txt - 在 ROBOTS.txt 中仅允许 Google CSE 并禁止 Google 标准搜索

转载 作者:行者123 更新时间:2023-12-04 03:43:45 26 4
gpt4 key购买 nike

我有一个使用 Google 自定义搜索引擎的网站。我希望 Google CSE 抓取我的网站,但我希望它不会出现在常规 Google 搜索的结果之外。我把它放在我的 robots.txt 文件中,希望谷歌 CSE 机器人会忽略它,因为我在设置中指定了我希望谷歌 CSE 抓取的页面

User-agent: *
Disallow: /

我猜谷歌 CSE 机器人也必须遵守 robots.txt。那么有没有办法让我的页面远离搜索引擎搜索,但谷歌 CSE 仍然能够索引它?蒂亚!

最佳答案

这个问题没有适合您想要的解决方案。我也有同样的情况,我只需要自定义搜索。不幸的是谷歌的列表crawlers不显示用于 google 自定义搜索的特定机器人。阻止 Googlebot 将同时终止 native 搜索和自定义搜索。

关于robots.txt - 在 ROBOTS.txt 中仅允许 Google CSE 并禁止 Google 标准搜索,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14442956/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com