gpt4 book ai didi

indexing - 如何在索引到谷歌时阻止 URL?

转载 作者:塔克拉玛干 更新时间:2023-11-03 02:43:17 25 4
gpt4 key购买 nike

我有一个开发服务器,其中放置了 100 个网站(文件夹),但我将每个文件夹指向另一个域,但我仍然可以使用服务器 ip 或域访问该文件夹,对吗?我怎样才能停止索引由服务器的 ip 或域打开的 url?

例如:

服务器是:myserver.com网址(文件夹):mywebsite

我可以像 myserver.com/mywebsite 一样访问它

我有另一个名为 newwebsite.com 的域并指向 myserver.com 中存在的 mywebsite 文件夹,然后我可以使用 newwebsite.com 访问同一文件夹,我需要停止索引 myserver.com/mywebsite.. 任何人都可以帮助我吗?提前致谢。

最佳答案

在您添加到 google 存储库的每个网站中,您都可以添加一个名为 Robots.txt 的文件。此文件包含您关于以下方面的所有规则:

  1. 哪些页面和 URL 将被编入索引并被关注。
  2. 哪些 URL 作为隐藏点拒绝爬虫访问。
  3. 以及您可以在此 documentation 中阅读的所有其他规则.

例如,您可以像这样在每个域(或子域)中阻止您喜欢的 URL:

User-agent: *
Disallow: /~joe/junk.html
Disallow: /~joe/foo.html

不要记住robots.txt文件必须放在每个网站的根目录下才能被爬虫检测到。问候

关于indexing - 如何在索引到谷歌时阻止 URL?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39013752/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com