gpt4 book ai didi

性能方面,为什么 facebook 不一次加载所有 JS 文件?

转载 作者:塔克拉玛干 更新时间:2023-11-03 02:29:47 24 4
gpt4 key购买 nike

我在登录后查看 facebook 中的 html 代码,他们似乎对 JS 文件做了很多请求(根据 firebug,最多 20 个)。我找到了 this question这里几乎总结了我最初想知道的内容,但这个问题现在已经很老了,它链接到的博客文章是从 2010 年开始的,而 facebook 似乎并不关心 SEO。

因此,虽然我知道 facebook 需要加载许多 JS 和 CSS 文件(而不是一个 JS 和一个 CSS 文件),但我的问题是针对更通用的网站和网络爬虫的状态。我们是否应该担心这些技术(通过 ajax 加载主要内容)会影响网络爬虫(googlebot 和 friend )?

我想提高性能并加载“稍后需要”的内容(文本/js/css)似乎是个好主意,但如果它对爬虫不可用(当然是内容)则不是.

谢谢!

最佳答案

http://support.google.com/webmasters/bin/answer.py?hl=en&answer=81766

While Googlebot is great at understanding the structure of HTML links, it can have difficulty finding its way around sites which use JavaScript for navigation. We're working on doing a better job of understanding JavaScript, but your best bet for creating a site that's crawlable by Google and other search engines is to provide HTML links to your content.

googlebot 和大多数搜索引擎爬虫不执行 javascript 代码,这是因为加载 javascript 和 css 意味着页面渲染,其热性能和任何蜘蛛都无法忍受。

但是,蜘蛛可以查看 js 代码以检查特定模式(例如正在使用黑帽技术)。

最好(但很难)的解决方案是为无法执行 javascript 的代理提供基本内容(主页内容必须可用),并为现代浏览器提供具有更多功能的优化内容

关于性能方面,为什么 facebook 不一次加载所有 JS 文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15479265/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com