gpt4 book ai didi

seo - 使用特定参数忽略 robot.txt 中的 URL?

转载 作者:塔克拉玛干 更新时间:2023-11-03 02:26:46 25 4
gpt4 key购买 nike

我希望 Google 忽略这样的 URL:

http://www.mydomain.example/new-printers?dir=asc&order=price&p=3

换句话说,所有具有参数dirorderprice 的URL 都应该被忽略。我如何使用 robots.txt 做到这一点?

最佳答案

如果您想禁止查询字符串,这里有一个解决方案:

Disallow: /*?*

或者如果您想更精确地查询字符串:

Disallow: /*?dir=*&order=*&p=*

您还可以在 robots.txt 中添加允许的 url

Allow: /new-printer$

$ 将确保只允许使用 /new-printer

更多信息:

http://code.google.com/web/controlcrawlindex/docs/robots_txt.html

http://sanzon.wordpress.com/2008/04/29/advanced-usage-of-robotstxt-w-querystrings/

关于seo - 使用特定参数忽略 robot.txt 中的 URL?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9149782/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com