gpt4 book ai didi

linux - 如何修复从 bs4 中找不到的命令

转载 作者:太空宇宙 更新时间:2023-11-04 12:00:13 25 4
gpt4 key购买 nike

这是我使用 Linux 和 Python 的第二天。我试图从使用“from bs4 import BeautifulSoup as Soup”的 github 运行代码,当我在 Conda 环境中运行代码以访问 python 3.6 for tensorflow 我收到“找不到命令”的错误我试过 pip install bs4 并下载了 BeautifulSoup4,结果没有任何改变。

这是我使用的来自 Mark Jay 的 Yolo github 的代码

import os
import urllib.request as ulib
from bs4 import BeautifulSoup as Soup
import json

url_a = 'https://www.google.com/search?ei=1m7NWePfFYaGmQG51q7IBg&hl=en&q={}'
url_b = '\&tbm=isch&ved=0ahUKEwjjovnD7sjWAhUGQyYKHTmrC2kQuT0I7gEoAQ&start={}'
url_c = '\&yv=2&vet=10ahUKEwjjovnD7sjWAhUGQyYKHTmrC2kQuT0I7gEoAQ.1m7NWePfFYaGmQG51q7IBg'
url_d = '\.i&ijn=1&asearch=ichunk&async=_id:rg_s,_pms:s'
url_base = ''.join((url_a, url_b, url_c, url_d))

headers = {'User-Agent': 'Chrome/41.0.2228.0 Safari/537.36'}


def get_links(search_name):
search_name = search_name.replace(' ', '+')
url = url_base.format(search_name, 0)
request = ulib.Request(url, None, headers)
json_string = ulib.urlopen(request).read()
page = json.loads(json_string)
new_soup = Soup(page[1][1], 'lxml')
images = new_soup.find_all('img')
links = [image['src'] for image in images]
return links


def save_images(links, search_name):
directory = search_name.replace(' ', '_')
if not os.path.isdir(directory):
os.mkdir(directory)

for i, link in enumerate(links):
savepath = os.path.join(directory, '{:06}.png'.format(i))
ulib.urlretrieve(link, savepath)


if __name__ == '__main__':
search_name = 'fidget kid spinner toys'
links = get_links(search_name)
save_images(links, search_name)

最佳答案

我发现我的脚本顶部需要一个 shebang 以使其不在 shell 中执行。我不明白 shebang 是什么,但现在它运行了!

关于linux - 如何修复从 bs4 中找不到的命令,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52767893/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com