gpt4 book ai didi

python - 遍历元素 beautifulsoup

转载 作者:太空宇宙 更新时间:2023-11-04 00:55:08 26 4
gpt4 key购买 nike

我不确定是什么问题。但是我有一个使用 Selenium 和 Beautifulsoup 4 的小脚本来访问和解析使用特定输入的特定网站的内容。对于每个搜索词,我想将元素附加到列表中。这是 html:

<table class="aClass">
<tr class="1">
<td>
<a href="aLink">
<span class="aClass">
Text
</span>
</a>
</td>
<td>
</td>
<td>
</td>
<td>
</td>
</tr>
<tr class="2">
<td>
</td>
<td anAttribute="aValue">
Text
</td>
<td>
</td>
</tr>
</table>

想要的 td 在第二个 tr 中,跨度在它之前的那个中。该模式在表格元素内持续 X 次点击。

每个列表的预期结果是 238,但当我打印长度时,它甚至没有接近。它停在 25。当我将数据写入文件时,存在同样的问题。然而,该列表确实包含来自所有不同搜索的结果。我认为我定位元素的方式可能是问题所在,但与 html 的结构相比,情况似乎并非如此。是否以错误的方式遍历元素?

完整代码:

def searchAndExtract():
searches = ['Search1', 'Search2', 'Search3']
textContents = []
idContents = []
data = []
data.append(['ID', 'MESSAGE'])
driver = webdriver.PhantomJS()
url = 'https://website.com'
driver.get(url)
for search in searches:
input = driver.find_element_by_id("q")
element = input.get_attribute('value')
if len(element) > 0:
input.clear()
input.send_keys(search)
input.submit()
pagehtml = driver.page_source
soup = BeautifulSoup(pagehtml)
identifiers = soup.find_all('span', {"class": "aClass"})
messages = soup.find_all('td', {"anAttribute": "aValue" })
for identifier in identifiers:
idContents.append(identifier.text)
for message in messages:
textContents.append(message.text)
for i, ids in enumerate(idContents):
data.append([ids, textContents[i]])

所以我仍然认为我以错误的方式循环播放所有内容。但我不知道我到底应该做什么。我试过了,但继续只获得前 25 次点击。这仅适用于上面看到的“标识符”。

    for tr in soup.find_all('tr'):
for td in tr.find_all('td'):
for span in td.find_all('span', {"class": "aClass"}):
if span.parent.name == 'a':
print span.text

好吧——我的错。这是一个解析器问题,尝试不同的问题时我很不耐烦。 alecxce 已经建议了这个。问题已解决。

最佳答案

这是一个完整的代码,有几处改进(在 data 列表中获取所需的 319 行):

from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.select import Select
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC


searches = ['Norway']
data = [['ID', 'MESSAGE']]

driver = webdriver.PhantomJS()
wait = WebDriverWait(driver, 10)
url = 'your URL here'
driver.get(url)

for search in searches:
# select 1000 results
select = Select(driver.find_element_by_id("count"))
select.select_by_visible_text("1000")

# provide the search query and search
input = driver.find_element_by_id("q")
input.clear()
input.send_keys(search)
input.submit()

# wait until loaded
wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, "a.top")))

# parse search results with BeautifulSoup
pagehtml = driver.page_source
soup = BeautifulSoup(pagehtml, "html5lib")
identifiers = [id.get_text(strip=True)
for id in soup.find_all('span', {"class": "glyphicon glyphicon-open-file"})]
messages = [message.get_text(strip=True)
for message in soup.find_all('td', {"colspan": "3"})]
data.extend(zip(identifiers, messages))

print(len(data))

关于python - 遍历元素 beautifulsoup,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35465314/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com