gpt4 book ai didi

seo - 如何使用 robots.txt 阻止机器人抓取分页?

转载 作者:塔克拉玛干 更新时间:2023-11-03 02:37:30 24 4
gpt4 key购买 nike

我的网站上有各种分页,我想阻止谷歌和其他搜索引擎抓取我的分页索引。

抓取页面示例:

http://www.mydomain.com/explore/recently-updated/index/12

如何使用 robots.txt 拒绝机器人抓取任何包含/index/的页面?

最佳答案

Disallow: /*?page=
Disallow: /*&page=

关于seo - 如何使用 robots.txt 阻止机器人抓取分页?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11477190/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com