gpt4 book ai didi

python - Scrapy DEFAULT_REQUEST_HEADERS 不起作用

转载 作者:行者123 更新时间:2023-11-28 17:26:50 25 4
gpt4 key购买 nike

我在 settings.py 中更改了默认请求 header ,如下所示:

DEFAULT_REQUEST_HEADERS = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.84 Safari/537.36',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Accept-Encoding': 'gzip, deflate, sdch',
'Accept-Language': 'en-US,en;q=0.8,zh-CN;q=0.6,zh;q=0.4',
}

但是,它在我的 HotSpider 中不起作用。我可以看到 scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware 已启用,但连接已完全关闭,就好像未设置 header 一样。

这是 HotSpider:

    # -*- coding: utf-8 -*-
import scrapy

class HotSpider(scrapy.Spider):
name = "hot"
allowed_domains = ["qiushibaike.com"]
start_urls = (
'http://www.qiushibaike.com/hot',
)

def parse(self, response):
print '\n', response.status, '\n'

如果我更改代码以覆盖 make_requests_from_url 以设置 header ,则一切正常。

    # -*- coding: utf-8 -*-
import scrapy


class HotSpider(scrapy.Spider):
name = "hot"
allowed_domains = ["qiushibaike.com"]
start_urls = (
'http://www.qiushibaike.com/hot',
)
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.84 Safari/537.36',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Accept-Encoding': 'gzip, deflate, sdch',
'Accept-Language': 'en-US,en;q=0.8,zh-CN;q=0.6,zh;q=0.4',
}

def make_requests_from_url(self, url):
return scrapy.http.Request(url, headers=self.headers)


def parse(self, response):
print '\n', response.status, '\n'

这个问题会根据prioritize default headers over user agent middlewares #2091在Scrapy 1.2中解决。

最佳答案

我发现在使用默认 header 中间件时,User-Agent header 确实未正确设置,并且此特定站点拒绝没有预期用户代理 header 的连接。

为爬虫设置用户代理的推荐方法是使用 USER_AGENT 设置键:

例如

# settings.py
USER_AGENT = "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.106 Safari/537.36"

在使用默认 header 时不设置用户代理可能是 Scrapy 中的一些错误,或者这可能是预期的并在某处记录。你需要对此做更多的研究,如果它确实是错误,那么值得在 Scrapy github repo 中发布错误报告。

关于python - Scrapy DEFAULT_REQUEST_HEADERS 不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38186221/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com