gpt4 book ai didi

seo - 使用 robots.txt 阻止来自搜索引擎的 100 多个 url

转载 作者:塔克拉玛干 更新时间:2023-11-03 02:48:52 27 4
gpt4 key购买 nike

<分区>

我的网站上有大约 100 个页面,我不想在 google 中编入索引...有什么方法可以使用 robots.txt 来阻止它...编辑每个页面会非常烦人并添加 noindex 元标记....

我想阻止的所有 url 都像...

www.example.com/index-01.html

www.example.com/index-02.html

www.example.com/index-03.html

www.example.com/index-04.html.

...

www.example.com/index-100.html

不确定,但添加类似以下的内容是否可行?

User-Agent: *
Disallow: /index-*.html

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com