gpt4 book ai didi

python - 从 BeautifulSoup 结果集中提取
  • 标签
  • 转载 作者:行者123 更新时间:2023-12-01 03:07:44 26 4
    gpt4 key购买 nike

    我想提取所有<li>来自 html 页面的标签。需要的内容可以通过result = soup.find('div', {'class':'column column_620 column_content'})检索。这将返回第一类 column_620 。之后我得到它的 sibling 并想要提取 <li>标签。但是那个result没有方法findAll() 。我该怎么做才能提取所需的 <li>标签条目?

    import re
    import time
    from datetime import datetime
    import platform
    import pandas as pd
    from numpy import nan
    from itertools import chain

    from bs4 import BeautifulSoup
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support.ui import WebDriverWait
    from selenium.webdriver.support import expected_conditions as EC

    timestampStart = datetime.now().strftime("%Y-%m-%d %H:%M:%S")

    sdCel = 'http://www.linguista.ch/sprachschule/san-diego-cel/'

    #browser = webdriver.PhantomJS() # headless
    browser = webdriver.Chrome() # run it with chrome browser appearing
    browser.get(sdCel)
    sellingPoints = soup.find('div', {'class':'column column_620 column_content'})
    points_ul = sellingPoints.find_next_siblings()
    #points_ul = sellingPoints.parent.find_next_sibling()

    for item in points_ul.findAll('li'): #this gives error
    if isinstance(item, Tag):
    print item.text

    这会出现以下错误: AttributeError: 'ResultSet' object has no attribute 'findAll'

    这是 points_ul 的一部分我必须检索:

    <div class="column column_620 column_content">\n
    <h3>Weshalb wir College of English Language f\xfcr einen Sprachaufenthalt empfehlen:</h3>\n
    <p></p><ul><li>Beste Lage im Stadtzentrum von San Diego</li><li>Sprachschule mit famil\xe4rer Atmosph\xe4re</li>
    <li>Von der Terrasse aus geniessen Sie einen tollen Blick \xfcber die Stadt</li>
    <li>Kleine Klasen mit max. 10 Teilnehmern</li>
    <li>Hervorragendes Preis- / Leistungsverh\xe4ltnis</li>
    </ul><p></p>\n</div>

    最佳答案

    这是因为 sellPoints.find_next_siblings() 返回您一个列表,而列表没有 findAll 方法。

    首先迭代列表,然后在其元素中使用 findAll

    关于python - 从 BeautifulSoup 结果集中提取 <li> 标签,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43180560/

    26 4 0