gpt4 book ai didi

duplicates - 我如何将所有要复制的流量或搜索(或类似的 URL)定向到我们网站上的一个 URL?

转载 作者:行者123 更新时间:2023-12-04 16:33:40 25 4
gpt4 key购买 nike

我会尽量保持这个简单,因为我自己不太明白如何完全正确地提出问题。
我们的网站上有一份报告显示重复的元标题和描述,它们看起来非常(几乎完全)如下所示 - 尽管我使用了下面的示例域:

http://example.com/green

https://example.com/green

http://www.example.com/green

https://www.example.com/green
但是,其中只有一个作为 HTML 文件实际存在于我们的服务器上,即:
https://www.example.com/green
据我了解,我需要以某种方式告诉谷歌和其他搜索引擎这些 URL 中哪些是正确的,这应该通过指定“规范”链接或 URL 来完成。
我的问题是规范引用显然必须添加到任何存在的重复页面,而不是实际的主规范页面?但除了上面提到的页面之外,我们实际上没有任何其他页面。那么没有地方可以设置这些规范的 rel 引用吗?
我确定必须对此有一个简单的解释,我完全不知道?

最佳答案

因此,事实证明这些是重复的 URL,因为我们的网站作为我们域的子域存在。任何到达 example.com(我们的域)的流量都需要永久重定向到 https://www.example.com , 通过 htaccess 文档中的重定向。

关于duplicates - 我如何将所有要复制的流量或搜索(或类似的 URL)定向到我们网站上的一个 URL?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/65685233/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com