gpt4 book ai didi

javascript - 使用 Scrapy 抓取无限滚动的网站

转载 作者:行者123 更新时间:2023-11-30 20:45:30 25 4
gpt4 key购买 nike

我正在尝试从 https://us.letgo.com/en 中收集我所在地区的二手元素对于个人项目。我发现此视频很有帮助 https://youtu.be/EelmnSzykyI .但是,视频无法解决一些细微差别。

我需要的信息是通过 json 异步加载的。该网站每次滚动加载 15 个项目(初始加载除外,其中包含 30 个项目)。 json 对象如下所示:https://search-products-pwa.letgo.com/api/products?country_code=US&offset=0&quadkey=0320030123201&num_results=30&distance_type=mi接下来要加载的 15 个项目如下所示:https://search-products-pwa.letgo.com/api/products?country_code=US&offset=30&quadkey=0320030123201&num_results=15&distance_type=mi

当我加载第一个响应 data = json.loads(response.text) 时,它会返回包含 30 个项目的列表。第一项如下所示:

{'attributes': None,
'category_id': 5,
'created_at': '2018-02-12T15:40:56+00:00',
'currency': 'USD',
'description': None,
'featured': False,
'geo': {'city': 'Asheville',
'country_code': 'US',
'distance': 1.1703344331099,
'lat': 35.5889898,
'lng': -82.5308015,
'zip_code': '28805'},
'id': '6080a1db-b2af-44c2-bfd8-4cc7f1ded17f',
'image_information': 'brown ukulele',
'images': [{'id': 'b8e78e2e-65c4-4062-b89e-c775ef9f6bc9',
'url': 'https://img.letgo.com/images/ab/da/e2/f6/abdae2f68e34170d8f1f22d2473d1153.jpeg'}],
'language_code': 'US',
'name': None,
'owner': {'avatar_url': '',
'banned': False,
'city': 'Asheville',
'country_code': 'US',
'id': 'fb0f8657-0273-4fac-ba77-9965a1dc8794',
'is_richy': False,
'name': 'Brock G',
'status': 'active',
'zip_code': '28805'},
'price': 100,
'price_flag': 2,
'rejected': False,
'status': 1,
'thumb': {'height': 1280,
'url': 'https://img.letgo.com/images/ab/da/e2/f6/abdae2f68e34170d8f1f22d2473d1153.jpeg?impolicy=img_200',
'width': 960},
'updated_at': '2018-02-12T15:41:34+00:00'}

我的目标是创建一个 for 循环并提取每个项目,然后继续执行下一个加载另外 15 个项目的请求,但我不确定如何执行此操作。请注意,额外的请求参数如下: enter image description here

enter image description here

更新

我快接近了,但似乎无法弄清楚如何简单地更新本质上递归调用自身的函数中的偏移参数:

class LetgoSpider(scrapy.Spider):
name = 'letgo'
allowed_domains = ['letgo.com/en']
start_urls = ['https://search-products-pwa.letgo.com/api/products?country_code=US&offset=0&quadkey=0320030123201&num_results=50&distance_type=mi']

def parse(self, response):
data = json.loads(response.text)
for used_item in data:
if len(data) == 0:
break
try:
title = used_item['name']
price = used_item['price']
description = used_item['description']
date = used_item['updated_at']
images = [img['url'] for img in used_item['images']]
latitude = used_item['geo']['lat']
longitude = used_item['geo']['lng']
except Exception:
pass

yield {'Title': title,
'Price': price,
'Description': description,
'Date': date,
'Images': images,
'Latitude': latitude,
'Longitude': longitude
}

i = 0
for new_items_load in response:
i += 50
offset = i
new_request = 'https://search-products-pwa.letgo.com/api/products?country_code=US&offset=' + str(i) + \
'&quadkey=0320030123201&num_results=50&distance_type=mi'
yield scrapy.Request(new_request, callback=self.parse)

最佳答案

不确定我是否理解你的问题。

如果你只需要知道如何定义参数,这可能是一种方式:

  let offset, num_results;
for(let i = 0; i < max; i += 15) {
offset = i;
num_results = i + 15;
[do the request with the parameters values]
}

关于javascript - 使用 Scrapy 抓取无限滚动的网站,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48751029/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com