gpt4 book ai didi

python - 使用 scrapyd 运行多个爬虫

转载 作者:行者123 更新时间:2023-11-28 17:50:19 26 4
gpt4 key购买 nike

我的项目中有多个蜘蛛,因此决定通过上传到 scrapyd 服务器来运行它们。我已经成功上传了我的项目,当我运行命令时我可以看到所有的蜘蛛

curl http://localhost:6800/listspiders.json?project=myproject

当我运行以下命令时

curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider2

只有一个蜘蛛运行,因为只给出了一个蜘蛛,但我想在这里运行多个蜘蛛,所以下面的命令适合在 scrapyd 中运行多个蜘蛛?

curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider1,spider2,spider3........

稍后我将使用 cron 作业运行此命令我的意思是我会安排它经常运行

最佳答案

如果你想使用 scrapyd 运行多个蜘蛛,一个一个地安排它们。 scrapyd 将以相同的顺序运行它们,但不会同时运行。

另请参阅:Scrapy 's Scrapyd too slow with scheduling spiders

关于python - 使用 scrapyd 运行多个爬虫,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11390888/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com