gpt4 book ai didi

bash - wget grep sed 提取链接并将它们保存到文件中

转载 作者:行者123 更新时间:2023-11-29 09:05:05 24 4
gpt4 key购买 nike

我需要从 http://en.wikipedia.org/wiki/Meme 下载所有页面链接并使用一个命令将它们全部保存到一个文件中。

第一次使用命令行,所以我不确定要使用的确切命令、标志等。我对要做什么只有一个大概的想法,不得不四处搜索 href 的含义。

wget http://en.wikipedia.org/wiki/Meme -O links.txt | grep 'href=".*"' | sed -e 's/^.*href=".*".*$/\1/'

文件中链接的输出不需要采用任何特定格式。

最佳答案

使用 gnu grep:

grep -Po '(?<=href=")[^"]*' links.txt

或者用 wget

wget http://en.wikipedia.org/wiki/Meme -q -O - |grep -Po '(?<=href=")[^"]*'

关于bash - wget grep sed 提取链接并将它们保存到文件中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21867458/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com