gpt4 book ai didi

大型 json 数据下载后,Selenium Driver 落后于 ajax 调用一页

转载 作者:行者123 更新时间:2023-12-04 04:01:05 26 4
gpt4 key购买 nike

我有这样的代码

driver.find_element_by_xpath("//div[@aria-rowindex=7][@aria-colindex=10]//child::span[1]").click() #click will take me to a new ajax page - no change in url
driver.implicitly_wait(60)
time.sleep(160) #without this the below a.png is still behind before my previous click
driver.save_screenshot('a.png') #new url page is in screenshot properly.
#working fine until this line
driver.implicitly_wait(60)
print(driver.page_source) #still in old page's page_source and the below xpath is not available here
WebDriverWait(driver, 60).until(EC.element_to_be_clickable((By.XPATH, "//button[@button_id='fuseBlowView']"))).click()

为什么即使屏幕截图显示新页面,驱动程序仍然在我的旧页面上?现在它是这样出错的:

    WebDriverWait(driver, 60).until(EC.element_to_be_clickable((By.XPATH, "//button[@button_id='fuseBlowView']"))).click()
File "C:\Users\jrex\PycharmProjects\Dragon\venv\lib\site-packages\selenium\webdriver\support\wait.py", line 80, in until
raise TimeoutException(message, screen, stacktrace)
selenium.common.exceptions.TimeoutException: Message:

无法找到 xpath,因为旧的页面 url 仍在 driver.page_source 中在 selenium 打开的网络浏览器中,我什至可以在等待时间内单击按钮 - 我只是尝试过 - 我做了一个屏幕截图来证明这一点。但为什么我的驱动程序落后了?

第一次点击a.png后有大量数据进来这就是等待时间的原因。只是为了把所有的数据都带进来。我正在使用 Google Chrome 驱动程序。

最佳答案

尝试获取网页中 iframe 的数量iframes = driver.find_elements_by_tag_name("iframe") 然后切换到相应的iframe,找到所需的元素并点击。可能会有帮助!

关于大型 json 数据下载后,Selenium Driver 落后于 ajax 调用一页,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63055456/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com