- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
您能否禁止所有站点,然后仅允许特定站点。我知道一种方法是禁止特定站点并允许所有站点。反过来也是有效的: E.G:
User-agent: *
Disallow: /
Allow: /siteOne/
Allow: /siteTwo/
Allow: /siteThree/
简单地禁止所有网站然后允许网站似乎比对所有网站都安全得多,他们必须考虑所有您不希望他们抓取的地方。
上面的这种方法是否会导致网站描述“由于该网站的 robots.txt - 了解更多信息,此结果的描述不可用”。在 Google 主页的自然排名中
更新 - 我进入了 Google 网站管理员工具 > 抓取 > robots.txt 测试器。起初,当我输入 siteTwo/default.asp 时,它显示已阻止并突出显示“禁止:/”行。离开并重新访问该工具后,它现在显示已允许。很奇怪。因此,如果这表示允许,我想知道为什么它会在网站描述中给出上面的消息?
更新 2 - 上面的 robots.txt 文件示例应该说 dirOne、dirTwo 而不是 siteOne、siteTwo。了解所有关于 robot.txt 的两个很好的链接是下面接受的答案中的 unor 的 robot.txt 规范和 robots exclusion standard也是必读的。这两页都解释了这一点。总之,是的,您可以禁止,他们允许,但始终将禁止放在最后。
最佳答案
(注意:您不是禁止/允许抓取 robots.txt 中的“站点”,而是抓取 URL。Disallow
/Allow
的值是 always the beginning of a URL path 。 )
robots.txt specification 没有定义Allow
。
遵循此规范的消费者将简单地忽略任何 Allow
字段。一些消费者,例如 Google,扩展了规范并理解了Allow
。
对于那些不知道 Allow
的消费者:一切都是不允许的。
对于了解 Allow
的消费者:是的,您的 robots.txt 应该适合他们。一切都不允许,除了那些与 Allow
字段匹配的 URL。
假设您的 robots.txt 托管在 http://example.org/robots.txt
,Google 将允许抓取以下网址:
http://example.org/siteOne/
http://example.org/siteOne/foo
http://example.org/siteOne/foo/
http://example.org/siteOne/foo.html
Google 将不允许抓取以下网址:
http://example.org/siteone/
(区分大小写)http://example.org/siteOne
(缺少尾部斜线)http://example.org/foo/siteOne/
(不匹配路径开头)关于seo - 机器人 txt 文件语法我可以禁止所有然后只允许某些站点,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29202340/
我知道我要求太多,但也许你也可以帮助解决这个问题。 a.txt 包含单词,b.txt 包含字符串。 我想知道 b.txt 中有多少个字符串以 a.txt 中的单词结尾 例子:一个.txt apple
这个问题在这里已经有了答案: erge text files ordered by numerical filenames in Bash (3 个答案) 关闭 4 年前。 我有一个文件夹,其中包含
我在一个目录中有几个平面文件 (.txt)。所有这些文件的格式都是 *.txt.txt,所以我想将其重命名为 *.txt?有什么简单的方法可以一起重命名? 当我尝试 ren *.txt.txt *.t
这个问题在这里已经有了答案: How can I use a file in a command and redirect output to the same file without trunc
您是否有任何理由应该或不应该允许访问 javascript 或 css 文件?特别是常见的文件,如 jquery。 最佳答案 人们普遍认为,搜索引擎每天为给定站点分配一定数量的带宽或 URL。因此,一
Closed. This question is off-topic。它当前不接受答案。 想要改善这个问题吗? Update the question,所以它是用于堆栈溢出的on-topic。 已关闭
这是相同的代码。我面临的问题是,我无法在任何文件上写入任何内容。请帮忙解决这个问题 #include #include int main() { FILE *fe; FILE *fo;
我想要特定于域的 robots.txt,到目前为止这有效: RewriteRule ^robots\.txt$ robots/%{HTTP_HOST}.txt [L] 但我希望有一个后备方案,因此如果
我正在调试一些构建成功运行的 SQL 命令的代码。 然而,在查询结束时,查询结果似乎被写入了一个文本文件。 完整的查询如下 echo SELECT DATE,DATETABLE,DATE,APPDAT
这个问题已经有答案了: difference between grep Vs cat and grep (5 个回答) 已关闭 8 年前。 我看到一个例子,其中有人这样做: cat source.tx
我想将表中的数据从以 csv 格式存储的文本文件插入到 sql server 表中。为此,我正在使用批量插入语句。现在我需要在“From”子句中指定文件名。我不想在那里使用网络位置或本地位置。我想将我
假设我有一个测试文件夹 (test.domain.com) 并且我不希望搜索引擎在其中抓取,我是否需要在测试文件夹中有一个 robots.txt 或者我可以只放置一个 robots.txt在根目录中,
关闭。这个问题是off-topic .它目前不接受答案。 想改善这个问题吗? Update the question所以它是 on-topic对于堆栈溢出。 9年前关闭。 Improve this q
这个问题在这里已经有了答案: order of directives in robots.txt, do they overwrite each other or complement each ot
关闭。这个问题是opinion-based .它目前不接受答案。 想改进这个问题?更新问题,以便 editing this post 可以用事实和引用来回答它. 8年前关闭。 Improve this
已关闭。这个问题是 not about programming or software development 。目前不接受答案。 这个问题似乎不是关于 a specific programming
在过去的几年中,当我引用“名字”字段的文本框控件时,我一直使用 FirstNameTxt 命名约定。但是,我注意到大多数其他开发人员倾向于使用命名约定 txtFirstName 哪个是最好的约定?为什
我只想允许目录 /minsc 中的一个文件,但我想禁止该目录的其余部分。 现在 robots.txt 中是这样的: User-agent: * Crawl-delay: 10 # Directorie
我正在编写一个将 youtube.com 映射到另一个域的代理服务器(因此用户可以轻松地从德国等国家/地区访问 youtube,而无需审查搜索结果和视频)。 不幸的是,我的 robots.txt 中存
我没有编程技能,但有一项非常具体的任务:我必须将一个庞大的文本文件拆分成多个,并在特定的文本标记 (@) 处拆分它们。我决定尝试使用 Powershell 脚本来完成此任务。 到目前为止,这就是我想出
我是一名优秀的程序员,十分优秀!