gpt4 book ai didi

python - Scrapy-deploy 到 Scrapyd 不会安装 setup.py 中指出的要求

转载 作者:行者123 更新时间:2023-12-05 02:18:01 24 4
gpt4 key购买 nike

我有一个用 Scrapy 编写的项目。这个蜘蛛在 setup.py 中有很多要求。这是一个简单的示例。我跑

scrapyd-deploy

并有以下输出

Packing version 1506254163
Deploying to project "quotesbot" in http://localhost:6800/addversion.json
Server response (200):
......................... [CUTTED TRACEBACK] ...........
\"/private/var/folders/xp/c949vlsd14q8xm__dv0dx8jh0000gn/T/quotesbot-1506254163-e50lmcfx.egg/quotesbot/spiders/toscrape-css.py\",
line 4, in <module>\n
ModuleNotFoundError: No module named 'sqlalchemy'\n"}

但是

setup.py in the same directory:

# Automatically created by: scrapyd-deploy

from setuptools import setup, find_packages

setup(
name = 'quotesbot',
version = '1.0',
packages = find_packages(),
entry_points = {'scrapy': ['settings = quotesbot.settings']},
install_requires=[
'scrapy-splash',
[ SOME REQUIREMENTS]
'sqlalchemy'
],
)

最佳答案

我检查了 scrapyd 源代码,它没有运行您项目的 setup.py。它只是解压包含依赖信息但不包含依赖本身的 egg。下面是addversion api的代码

class AddVersion(WsResource):

def render_POST(self, txrequest):
project = txrequest.args[b'project'][0].decode('utf-8')
version = txrequest.args[b'version'][0].decode('utf-8')
eggf = BytesIO(txrequest.args[b'egg'][0])
self.root.eggstorage.put(eggf, project, version)
spiders = get_spider_list(project, version=version)
self.root.update_projects()
UtilsCache.invalid_cache(project)
return {"node_name": self.root.nodename, "status": "ok", "project": project, "version": version, \
"spiders": len(spiders)}

self.root.eggstorage.put(eggf, project, version) 基本上只是提取了 egg,它直接运行 spiders = get_spider_list(project, version=version),因此没有这样的设置。

所以要么你的 egg 需要包含所有依赖项,这意味着你不会使用 scrapyd-deploy 构建 egg。我找不到太多文档来查看是否可行

所以您看到的是因为 srapyd 缺少实现。您应该在 http://github.com/scrapy/scrapyd/ 打开错误或增强请求

关于python - Scrapy-deploy 到 Scrapyd 不会安装 setup.py 中指出的要求,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46389882/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com