gpt4 book ai didi

scrapy - CrawlSpider with Splash 在第一个 URL 后卡住

转载 作者:行者123 更新时间:2023-12-02 03:14:19 26 4
gpt4 key购买 nike

我正在编写一个爬虫蜘蛛,我需要在其中渲染一些带有飞溅的响应。我的蜘蛛基于 CrawlSpider。我需要呈现我的 start_url 响应来喂养我的爬行蜘蛛。不幸的是,我的爬行蜘蛛在呈现第一个响应后停止了。知道出了什么问题吗?

class VideoSpider(CrawlSpider):

start_urls = ['https://juke.com/de/de/search?q=1+Mord+f%C3%BCr+2']

rules = (
Rule(LinkExtractor(allow=()), callback='parse_items',process_request = "use_splash",),
)

def use_splash(self, request):
request.meta['splash'] = {
'endpoint':'render.html',
'args':{
'wait':0.5,
}
}
return request

def start_requests(self):
for url in self.start_urls:
yield scrapy.Request(url, self.parse, meta={
'splash': {
'endpoint': 'render.html',
'args': {'wait': 0.5}
}
})


def parse_items(self, response):
data = response.body
print(data)

最佳答案

使用 SplashRequest 而不是 scrapy.Request ... 查看我的答案
CrawlSpider with Splash

关于scrapy - CrawlSpider with Splash 在第一个 URL 后卡住,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37978365/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com