- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
为了快速了解欧洲免费志愿服务的一系列机会
目的是获取所有 6k 目标页面:https://europa.eu/youth/volunteering/organisation/48592见下文 - 图像以及目标的解释和描述以及需要的数据。
我们获取..
https://europa.eu/youth/volunteering/organisation/50162
https://europa.eu/youth/volunteering/organisation/50163
and so forth and so forth
因为我们有超过 6000 条记录 - 我承认我得到了结果。但是脚本只返回 20 条记录 - 即 20 行。
查看我目前的方法:我在这里运行这个迷你方法:
import requests
from bs4 import BeautifulSoup
import re
import csv
from tqdm import tqdm
first = "https://europa.eu/youth/volunteering/organisations_en?page={}"
second = "https://europa.eu/youth/volunteering/organisation/{}_en"
def catch(url):
with requests.Session() as req:
pages = []
print("Loading All IDS\n")
for item in tqdm(range(0, 347)):
r = req.get(url.format(item))
soup = BeautifulSoup(r.content, 'html.parser')
numbers = [item.get("href").split("/")[-1].split("_")[0] for item in soup.findAll(
"a", href=re.compile("^/youth/volunteering/organisation/"), class_="btn btn-default")]
pages.append(numbers)
return numbers
def parse(url):
links = catch(first)
with requests.Session() as req:
with open("Data.csv", 'w', newline="", encoding="UTF-8") as f:
writer = csv.writer(f)
writer.writerow(["Name", "Address", "Site", "Phone",
"Description", "Scope", "Rec", "Send", "PIC", "OID", "Topic"])
print("\nParsing Now... \n")
for link in tqdm(links):
r = req.get(url.format(link))
soup = BeautifulSoup(r.content, 'html.parser')
task = soup.find("section", class_="col-sm-12").contents
name = task[1].text
add = task[3].find(
"i", class_="fa fa-location-arrow fa-lg").parent.text.strip()
try:
site = task[3].find("a", class_="link-default").get("href")
except:
site = "N/A"
try:
phone = task[3].find(
"i", class_="fa fa-phone").next_element.strip()
except:
phone = "N/A"
desc = task[3].find(
"h3", class_="eyp-project-heading underline").find_next("p").text
scope = task[3].findAll("span", class_="pull-right")[1].text
rec = task[3].select("tbody td")[1].text
send = task[3].select("tbody td")[-1].text
pic = task[3].select(
"span.vertical-space")[0].text.split(" ")[1]
oid = task[3].select(
"span.vertical-space")[-1].text.split(" ")[1]
topic = [item.next_element.strip() for item in task[3].select(
"i.fa.fa-check.fa-lg")]
writer.writerow([name, add, site, phone, desc,
scope, rec, send, pic, oid, "".join(topic)])
parse(second)
但这在解析 20 个结果后停止
注意:我想返回页面而不是数字。
因为我想遍历页面而不是数字;但无论如何 - 如果我从返回数字更改为返回页面 - 我不会得到更好的结果。
这里我似乎有一些错误:我猜 catch 函数有一个奇特的错误:这里我们返回数字,但我很确定这是一个错误:我们打算返回页面,这意味着当我们在另一个函数中迭代 catch(first) 的结果时,我们并没有迭代所有想要的东西。我想我需要包含一个修复:我们需要在该函数的底部返回页面,而不是返回数字
就是说:因为我想遍历页面而不是数字;但无论如何 - 如果我从返回数字更改为返回页面 - 我不会得到更好的结果。
任何想法 - 如何让解析器给出所有 6k 结果。
最佳答案
您可以使用此示例来解析页面:
import pandas
import requests
import pandas as pd
from bs4 import BeautifulSoup
def safe_get(to_find, what_next, if_not_found="N/A"):
if to_find:
return what_next(to_find)
return if_not_found
first_url = "https://europa.eu/youth/volunteering/organisations_en?page={}"
links = []
for page in range(0, 3): # <--- increase number of pages here
u = first_url.format(page)
soup = BeautifulSoup(requests.get(u).content, "html.parser")
for a in soup.select("h5 > a"):
links.append("https://europa.eu" + a["href"])
data = []
for l in links:
print(l)
soup = BeautifulSoup(requests.get(l).content, "html.parser")
name = safe_get(soup.select_one("h5"), lambda t: t.text)
address = safe_get(
soup.select_one(".fa-location-arrow"),
lambda t: t.parent.get_text(strip=True),
)
link = safe_get(
soup.select_one(".fa-external-link"), lambda t: t.find_next("a")["href"]
)
phone = safe_get(
soup.select_one(".fa-phone"), lambda t: t.find_next(text=True).strip()
)
desc = safe_get(
soup.select_one("h3 ~ p"),
lambda t: t.get_text(strip=True, separator="\n"),
)
scope = safe_get(
soup.select_one(".fa-asterisk"),
lambda t: t.find_next("span").get_text(strip=True),
)
receiving = safe_get(
soup.select_one('td:-soup-contains("Receiving") ~ td'),
lambda t: t.get_text(strip=True),
)
sending = safe_get(
soup.select_one('td:-soup-contains("Sending") ~ td'),
lambda t: t.get_text(strip=True),
)
pic = safe_get(
soup.find("span", text=lambda t: t and t.startswith("PIC")),
lambda t: t.text.split()[-1],
)
oid = safe_get(
soup.find("span", text=lambda t: t and t.startswith("OID")),
lambda t: t.text.split()[-1],
)
topics = ", ".join(
[t.find_next(text=True).strip() for t in soup.select("p > .fa-check")]
)
data.append(
(
name,
address,
link,
phone,
desc,
scope,
receiving,
sending,
pic,
oid,
topics,
)
)
df = pd.DataFrame(
data,
columns=[
"Name",
"Address",
"Site",
"Phone",
"Description",
"Scope",
"Rec",
"Send",
"PIC",
"OID",
"Topic",
],
)
print(df)
df.to_csv("data.csv", index=False)
创建 data.csv
(来自 Libre Office 的屏幕截图):
关于python - BeautifulSoup:6k 条记录 - 但在解析 20 行后停止,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67454655/
猫f1.txt阿曼维沙尔阿杰贾伊维杰拉胡尔曼尼什肖比特批评塔夫林现在输出应该符合上面给定的条件 最佳答案 您可以在文件读取循环中设置一个计数器并打印它, 计数=0 读取行时做 让我们数一数++ if
我正在尝试查找文件 1 和文件 2 中的共同行。如果公共(public)行存在,我想写入文件 2 中的行,否则打印文件 1 中的非公共(public)行。fin1 和 fin2 是这里的文件句柄。它读
我有这个 SQL 脚本: CREATE TABLE `table_1` ( `IDTable_1` int(11) NOT NULL, PRIMARY KEY (`IDTable_1`) );
我有 512 行要插入到数据库中。我想知道提交多个插入内容是否比提交一个大插入内容有任何优势。例如 1x 512 行插入 -- INSERT INTO mydb.mytable (id, phonen
如何从用户中选择user_id,SUB(row, row - 1),其中user_id=@userid我的表用户,id 为 1、3、4、10、11、23...(不是++) --id---------u
我曾尝试四处寻找解决此问题的最佳方法,但我找不到此类问题的任何先前示例。 我正在构建一个基于超本地化的互联网购物中心,该区域分为大约 3000 个区域。每个区域包含大约 300 个项目。它们是相似的项
preg_match('|phpVersion = (.*)\n|',$wampConfFileContents,$result); $phpVersion = str_replace('"','',
我正在尝试创建一个正则表达式,使用“搜索并替换全部”删除 200 个 txt 文件的第一行和最后 10 行 我尝试 (\s*^(\h*\S.*)){10} 删除包含的前 10 行空白,但效果不佳。 最
下面的代码从数据库中获取我需要的信息,但没有打印出所有信息。首先,我知道它从表中获取了所有正确的信息,因为我已经在 sql Developer 中尝试过查询。 public static void m
很难说出这里问的是什么。这个问题是含糊的、模糊的、不完整的、过于宽泛的或修辞性的,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开它,visit the help center 。 已关
我试图在两个表中插入记录,但出现异常。您能帮我解决这个问题吗? 首先我尝试了下面的代码。 await _testRepository.InsertAsync(test); await _xyzRepo
这个基本的 bootstrap CSS 显示 1 行 4 列: Text Text Text
如果我想从表中检索前 10 行,我将使用以下代码: SELECT * FROM Persons LIMIT 10 我想知道的是如何检索前 10 个结果之后的 10 个结果。 如果我在下面执行这段代码,
今天我开始使用 JexcelApi 并遇到了这个:当您尝试从特定位置获取元素时,不是像您通常期望的那样使用sheet.getCell(row,col),而是使用sheet.getCell(col,ro
我正在尝试在我的网站上开发一个用户个人资料系统,其中包含用户之前发布的 3 个帖子。我可以让它选择前 3 条记录,但它只会显示其中一条。我是不是因为凌晨 2 点就想编码而变得愚蠢? query($q)
我在互联网上寻找答案,但找不到任何答案。 (我可能问错了?)我有一个看起来像这样的表: 我一直在使用查询: SELECT title, date, SUM(money) FROM payments W
我有以下查询,我想从数据库中获取 100 个项目,但 host_id 多次出现在 urls 表中,我想每个 host_id 从该表中最多获取 10 个唯一行。 select * from urls j
我的数据库表中有超过 500 行具有特定日期。 查询特定日期的行。 select * from msgtable where cdate='18/07/2012' 这将返回 500 行。 如何逐行查询
我想使用 sed 从某一行开始打印 n 行、跳过 n 行、打印 n 行等,直到文本文件结束。例如在第 4 行声明,打印 5-9,跳过 10-14,打印 15-19 等 来自文件 1 2 3 4 5 6
我目前正在执行验证过程来检查用户的旧密码,但问题是我无法理解为什么我的查询返回零行,而预期它有 1 行。另一件事是,即使我不将密码文本转换为 md5,哈希密码仍然得到正确的答案,但我不知道为什么会发生
我是一名优秀的程序员,十分优秀!