gpt4 book ai didi

linux - 通过 shell 脚本获取网站的 Url

转载 作者:塔克拉玛干 更新时间:2023-11-03 01:37:08 25 4
gpt4 key购买 nike

我正在尝试构建一个 shell 脚本,该脚本在执行时可以将网站的 url 提取到一个文本文件中,这样我就可以将该文本文件用作 wget 的输入

最佳答案

这是一个简单的 Firefox 解决方案:

Firefox 更新 places.sqlite每次访问旧的或新的 url 时,即每次您的一个选项卡的位置栏之一发生变化时,数据库。

通过 SQL 查询此数据库非常容易。这是一个监视文件并将任何更改打印到控制台的小脚本:

#!/usr/bin/env bash
places=$(find $HOME/.mozilla -name places.sqlite)

lastDate=0

warn(){
echo "$*" > /dev/stderr
}

fail() {
warn "$*"; exit 1
}

[ -f "$places" ] || fail "places.sqlite not found"

warn "starting to watch $places at time: $lastDate"

while sleep 1; do
count=$(sqlite3 $places "select count(*) from moz_places where last_visit_date > '$lastDate'")
if [ $count -gt 0 ]; then
sqlite3 $places "select url from moz_places where last_visit_date > '$lastDate'"
lastDate=$(echo "$(date +%s%N) / 1000" | bc)
fi
done

如果您愿意,可以将输出重定向到一个文件:sh watchscript.sh > myfile.txt

关于linux - 通过 shell 脚本获取网站的 Url,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15623265/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com