gpt4 book ai didi

python - URL Selenium 超出最大重试次数

转载 作者:行者123 更新时间:2023-12-05 02:10:15 29 4
gpt4 key购买 nike

所以我希望遍历 URL 数组并打开不同的 URL 以使用 Selenium 进行网络抓取。问题是,当我点击第二个 browser.get(url) 时,我得到了“URL 超出的最大重试次数”和“无法建立连接,因为目标机器主动拒绝了它”。

编辑:添加了其余代码,尽管它只是 BeautifulSoup 的东西。

from bs4 import BeautifulSoup
import time
from selenium import webdriver
from selenium.webdriver import Chrome
from selenium.webdriver.chrome.options import Options
import json

chrome_options = Options()
chromedriver = webdriver.Chrome(executable_path='C:/Users/andre/Downloads/chromedriver_win32/chromedriver.exe', options=chrome_options)
urlArr = ['https://link1', 'https://link2', '...']

for url in urlArr:
with chromedriver as browser:
browser.get(url)
time.sleep(5)
# Click a button
chromedriver.find_elements_by_tag_name('a')[7].click()

chromedriver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
time.sleep(2)
for i in range (0, 2):
chromedriver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
time.sleep(5)

html = browser.page_source
page_soup = BeautifulSoup(html, 'html.parser')
boxes = page_soup.find("div", {"class": "rpBJOHq2PR60pnwJlUyP0"})
videos = page_soup.findAll("video", {"class": "_1EQJpXY7ExS04odI1YBBlj"})

这里的其他帖子说当您一次使用太多页面并且服务器将我拒之门外时会发生这种情况,但这不是我的问题。每当我多次调用 browser.get(url) 时,就会发生上述错误。

这是怎么回事?谢谢。

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com