gpt4 book ai didi

linux - 用于下载多个 URLS 的 Wget 宏?

转载 作者:塔克拉玛干 更新时间:2023-11-03 00:42:26 25 4
gpt4 key购买 nike

(注意:您至少需要 10 个信誉才能发布超过 2 个链接。我不得不删除 http 和 url,但我希望它仍然可以理解!)

您好!

我正在尝试获取整个网站以供个人教育使用。网址如下所示:

example.com/download.php?id=1

我想下载从 1 到最后一页 4952 的所有页面

所以第一个网址是:

example.com/download.php?id=1

第二个是

example.com/download.php?id=4952

从 1 - 4952 下载页面的最有效方法是什么?

我当前的命令是(它工作得很好,正是我想要的方式):

wget -P /home/user/wget -S -nd --reject=.rar http://example.com/download.php?id=1

注意:该网站有一个巨魔,如果您尝试运行以下命令:

 wget -P /home/user/wget -S -nd --reject=.rar --recursive --no-clobber --domains=example.com --no-parent http://example.com/download.php

它会下载一个 1000GB 的 .rar 文件来骗你!!!

我是 Linux 新手,请多多关照!只是想学习!

谢谢!

最佳答案

Notepad++ =

您的网址 + 列编辑器 = 所有网址的海量列表

Wget -I your_file_with_all_urls = 成功!

感谢巴马尔

关于linux - 用于下载多个 URLS 的 Wget 宏?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41233545/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com