gpt4 book ai didi

python - scrapy请求不像在浏览器中那样工作

转载 作者:太空宇宙 更新时间:2023-11-03 17:31:14 26 4
gpt4 key购买 nike

我正在尝试从 foodie.fi 中抓取数据。

为了能够抓取每个区域的数据,我应该选择区域并按产品名称进行搜索。

当我从浏览器中选择区域时,它会发出请求并返回 json 作为状态为 200 的响应。

但是当我尝试从 scrapy 发出相同的请求时,它会将我重定向到错误的页面(状态 302)。

下面是我的scrapy代码:

第一个请求是列出区域。

第二个请求是选择区域(这个请求错误)。

第三个请求是从选定区域的搜索产品结果中抓取数据。

from scrapy.spider import Spider
from scrapy.selector import Selector
from scrapy.http import Request
from foodie.items import FOODIEItem

class FOODIESpider(Spider):
name="foodie"
allowed_domains = []



def start_requests(self):
yield Request(
url="https://www.foodie.fi/store/list/region/Osuuskauppa%20Pee%C3%84ss%C3%A4",
callback=self.select_store
)

# Page parser
def select_store(self, response):
yield Request(
url="https://www.foodie.fi/store/select_store/41e9b2cb4ad9d81cc9ad5a640d78ed8f",
callback=self.make_search
)




def make_search(self, response):
yield Request(
url="https://www.foodie.fi/products/search/leip%C3%A4",
callback=self.data_reader
)



def data_reader(self, response):
hxs = Selector(response)
rows = hxs.xpath("//*@id='page']/div/div[2]/div[2]/div/div[3]/div[1]/ul/li")
items = []
for row in rows:
name = row.xpath("./div[3]/div[1]/text()").extract()
print name

最佳答案

您是否注意到您要抓取的数据是否是由 javascript 生成的?

执行以下测试:在浏览器上右键单击数据,然后单击检查元素。然后执行“显示页面源”并按 ctrl+f 键查找您要查找的数据。如果您在检查时可以找到它,但在页面源代码上找不到它,则可能是由 javascript 调用的。

如果是这种情况,我建议使用 seleniumscrapy。互联网上有很多示例,它是浏览器驱动程序,是获取此类数据的最简单方法。您可以使用 selenium + PhantomJS 来使用 headless 浏览器。

关于python - scrapy请求不像在浏览器中那样工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31815237/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com