gpt4 book ai didi

python - 下载特定网址的 flickr 图片

转载 作者:行者123 更新时间:2023-11-28 21:56:18 29 4
gpt4 key购买 nike

我想从 flickr 下载一些图片。例如,我有这个链接 http://www.flickr.com/photos/tonynetone/3717759677/我想在我的磁盘中保存这个具有特定名称的大图像。此 link 中的文档对我帮助不大。你能请别人举一个 python 代码的例子吗?

谢谢。

附言: window

最佳答案

您需要纯 Python 解决方案吗?您喜欢这样的 Bash 单行代码吗?

$ curl http://www.flickr.com/photos/tonynetone/3717759677/ | egrep 'http:\\/\\/[^"]*jpg' -o | sed -e 's@\\@@g'
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 177k 0 177k 0 0 164k 0 --:--:-- 0:00:01 --:--:-- 309k
http://farm3.staticflickr.com/2567/3717759677_4a520a1dbb_s.jpg
http://farm3.staticflickr.com/2567/3717759677_4a520a1dbb_q.jpg
http://farm3.staticflickr.com/2567/3717759677_4a520a1dbb_t.jpg
http://farm3.staticflickr.com/2567/3717759677_4a520a1dbb_m.jpg
http://farm3.staticflickr.com/2567/3717759677_4a520a1dbb.jpg
http://farm3.staticflickr.com/2567/3717759677_97b2ab3b4d_o.jpg

顺便说一句,您提到的照片没有“大”选项

也许您指的是“原创”(_o)?

更新

import urllib2, re

def download(url, save_name):
html = urllib2.urlopen(url).read()
img_url = re.findall(r'http:[^" \\:]*_b\.jpg', html)[0]

with open(save_name, "wb") as fp:
fp.write(urllib2.urlopen(img_url).read())

download('http://www.flickr.com/photos/91440301@N03/9679566882/sizes/l/', 'elephant.jpg')

使用说明

  1. 如果没有“大”选项(文件名以 _b.jpg 结尾的照片),它只会引发异常(可能是 IndexError。 ) 请自行抓取。

  2. 仅支持.jpg

  3. 请自行确定save_name

关于python - 下载特定网址的 flickr 图片,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21673323/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com