gpt4 book ai didi

Python - 合并许多 url 并解析它们

转载 作者:太空宇宙 更新时间:2023-11-04 06:39:26 25 4
gpt4 key购买 nike

下面是我在论坛上找到的脚本,它几乎正是我所需要的,除了我需要阅读 30 个不同的 url 并将它们一起打印出来。我尝试了几个选项,但脚本只是中断。我如何合并所有 30 的 url,解析,然后将它们打印出来。

如果你能帮助我,我将不胜感激,你。

import sys
import string
from urllib2 import urlopen
import xml.dom.minidom

var_xml = urlopen("http://www.test.com/bla/bla.xml")
var_all = xml.dom.minidom.parse(var_xml)

def extract_content(var_all, var_tag, var_loop_count):
return var_all.firstChild.getElementsByTagName(var_tag)[var_loop_count].firstChild.data

var_loop_count = 0
var_item = " "
while len(var_item) > 0:
var_title = extract_content(var_all, "title", var_loop_count)
var_date = extract_content(var_all, "pubDate", var_loop_count)
print "Title: ", var_title
print "Published Date: ", var_date
print " "
var_loop_count += 1

try:
var_item = var_all.firstChild.getElementsByTagName("item")[var_loop_count].firstChild.data
except:
var_item = ""

最佳答案

如果这是标准的 RSS,我鼓励使用 http://www.feedparser.org/ ;提取所有项目很简单。

关于Python - 合并许多 url 并解析它们,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3112548/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com