gpt4 book ai didi

Linux,将网页内容保存为文本

转载 作者:太空宇宙 更新时间:2023-11-04 04:39:46 24 4
gpt4 key购买 nike

我需要一种方法来保存运行 java 的网站的内容,例如: https://www.betfair.com/exchange/plus/tennis

我需要一个可以执行此操作的函数:Ctrl+A,创建文本文档,Ctrl+V,保存文档。

我知道wget和curl,但我不能让他们完全做到这一点,有什么帮助吗?

最佳答案

如果您想下载特定页面的内容并将其保存到文件中,您可以使用-O file选项:

 wget "https://www.betfair.com/exchange/plus/tennis" -O tennis.txt 

请注意,在某些系统(CentOS 和其他系统)上,命令行中的参数顺序很重要。

wget -O FILE URL

有效。

wget URL -O FILE

不起作用(至少在 CentOS 上)。

如果您想使用 wget 下载整个网站,您可以执行以下操作:

$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains betfair.com \
--no-parent \
www.betfair.com/

INFO: If you would like to suppress tracing information you can use '-q'

有关详细信息,请参阅 wget 手册页:

$man wget

关于Linux,将网页内容保存为文本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52904005/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com