gpt4 book ai didi

python - 将 Aiohttp 与代理一起使用

转载 作者:太空狗 更新时间:2023-10-30 01:56:30 27 4
gpt4 key购买 nike

我正在尝试使用异步从 url 列表(由 id 标识)中获取 HTML。我需要使用代理。

我正在尝试将 aiohttp 与如下代理一起使用:

import asyncio
import aiohttp
from bs4 import BeautifulSoup

ids = ['1', '2', '3']

async def fetch(session, id):
print('Starting {}'.format(id))
url = f'https://www.testing.com/{id}'

async with session.get(url) as response:
return BeautifulSoup(await response.content, 'html.parser')

async def main(id):
proxydict = {"http": 'xx.xx.x.xx:xxxx', "https": 'xx.xx.xxx.xx:xxxx'}
async with aiohttp.ClientSession(proxy=proxydict) as session:
soup = await fetch(session, id)
if 'No record found' in soup.title.text:
print(id, 'na')


loop = asyncio.get_event_loop()
future = [asyncio.ensure_future(main(id)) for id in ids]


loop.run_until_complete(asyncio.wait(future))

根据此处的问题:https://github.com/aio-libs/aiohttp/pull/2582看起来 ClientSession(proxy=proxydict) 应该可以工作。

但是,我得到一个错误 "__init__() got an unexpected keyword argument 'proxy'"

请问我应该怎么做才能解决这个问题?谢谢。

最佳答案

您可以在 session.get 调用中设置代理配置:

async with session.get(url, proxy=your_proxy_url) as response:
return BeautifulSoup(await response.content, 'html.parser')

如果您的代理需要身份验证,您可以像这样在代理的 url 中设置它:

proxy = 'http://your_user:your_password@your_proxy_url:your_proxy_port'
async with session.get(url, proxy=proxy) as response:
return BeautifulSoup(await response.content, 'html.parser')

或:

proxy = 'http://your_proxy_url:your_proxy_port'
proxy_auth = aiohttp.BasicAuth('your_user', 'your_password')
async with session.get(url, proxy=proxy, proxy_auth=proxy_auth) as response:
return BeautifulSoup(await response.content, 'html.parser')

有关更多详细信息,请参阅 here

关于python - 将 Aiohttp 与代理一起使用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51887784/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com