gpt4 book ai didi

github-pages - 在 GitHub 页面中使用 robots.txt 有什么意义?

转载 作者:行者123 更新时间:2023-12-04 20:30:16 25 4
gpt4 key购买 nike

我知道文件 robots.txt 用于阻止第三方索引内容网站的网络爬虫。

但是,如果此文件的目标是划定站点的私有(private)区域或保护私有(private)区域,这就是尝试使用 robots.txt 隐藏内容的意义,如果所有内容都可以在 GitHub 存储库中看到?

我的问题使用自定义域扩展示例。

是否有使用文件的动机 robots.txt在 GitHub 页面内?是还是不是?为什么?

备选方案 1
为了使内容有效地隐藏,则需要为网站付费以获取私有(private)存储库。

最佳答案

意向robots.txt不是划分私有(private)区域,因为机器人甚至无法访问它们。相反,如果你有一些垃圾或任何你不想被搜索引擎索引的杂项。

比如说。我编写 Flash 游戏用于娱乐,并使用 GitHub Pages 让游戏检查更新。我有 this file托管在我的 GHP 上,其所有内容都是

10579
2.2.3
https://github.com/iBug/SpaceRider/tree/master/SpaceRider%202

它包含三条信息:新版本的内部编号、新版本的显示名称和下载链接。因此,当被爬虫索引时它肯定是没用的,所以当我有一个 robots.txt这是一种我会避免被索引的东西。

关于github-pages - 在 GitHub 页面中使用 robots.txt 有什么意义?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47937742/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com