gpt4 book ai didi

python - 使用带参数的 Scrapyd

转载 作者:太空宇宙 更新时间:2023-11-04 10:14:59 24 4
gpt4 key购买 nike

我正在使用 Scrapyd 将 scrapy 用作网络服务。

我想使用带有如下参数的 curl 命令:

curl http://myip:6800/schedule.json -d project=default -d spider=myspider -d domain=www.google.fr

但是我不知道如何获取爬虫中的参数域。

import scrapy
from scrapy.spiders import CrawlSpider, Rule
from scrapy.linkextractors import LinkExtractor

class MyItem(Item):
url = Field()

class HttpbinSpider(CrawlSpider):

name = "expired"
start_urls = [domain]

有时我需要在参数中传递一个域或多个域

谢谢!

最佳答案

由于 scrapy 中缺少一个特性,这是不可能的。

用户通常通过序列化 curl 的参数来解决这个问题然后在蜘蛛的 init() 中反序列化。

curl http://myip:6800/schedule.json -d project=default -d spider=myspider -d domains='["www1.example.com", "www2.example.com"]'

代码:

class MySpider(Spider):
def __init__(self, domains=None):
domains = json.loads(domains)
# do something with domains...

关于python - 使用带参数的 Scrapyd,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35913285/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com