gpt4 book ai didi

linux - 在 Linux 服务器上保存完整网页的最佳方法是什么?

转载 作者:IT王子 更新时间:2023-10-28 23:52:14 25 4
gpt4 key购买 nike

我需要在我的 Linux 服务器上存档完整的页面,包括任何链接图像等。寻找最佳解决方案。有没有办法保存所有 Assets ,然后将它们全部重新链接以在同一目录中工作?

我考虑过使用 curl,但我不确定如何做这一切。另外,我可能需要 PHP-DOM 吗?

有没有办法在服务器上使用 firefox 并在加载地址或类似内容后复制临时文件?

欢迎任何输入。

编辑:

似乎 wget 不会工作,因为需要渲染文件。我在服务器上安装了 firefox,有没有办法在 firefox 中加载 url,然后获取临时文件并在之后清除临时文件?

最佳答案

wget 可以做到这一点,例如:

wget -r http://example.com/

这将镜像整个 example.com 站点。

一些有趣的选项是:

-Dexample.com:不要跟随其他域的链接
--html-extension:将 text/html 内容类型的页面重命名为 .html

手册:http://www.gnu.org/software/wget/manual/

关于linux - 在 Linux 服务器上保存完整网页的最佳方法是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4769433/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com