- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章python爬取各类文档方法归类汇总由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
HTML文档是互联网上的主要文档类型,但还存在如TXT、WORD、Excel、PDF、csv等多种类型的文档。网络爬虫不仅需要能够抓取HTML中的敏感信息,也需要有抓取其他类型文档的能力。下面简要记录一些个人已知的基于python3的抓取方法,以备查阅.
1.抓取TXT文档 。
在python3下,常用方法是使用urllib.request.urlopen方法直接获取。之后利用正则表达式等方式进行敏感词检索.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
### Reading TXT doc ###
from
urllib.request
import
urlopen
from
urllib.error
import
URLError,HTTPError
import
re
try
:
textPage
=
urlopen(
"http://www.pythonscraping.com/pages/warandpeace/chapter1.txt"
)
except
(URLError,HTTPError) as e:
print
(
"Errors:\n"
)
print
(e)
#print(textPage.read())
text
=
str
(textPage.read())
#下面方法用正则匹配含1805的句子
pattern
=
re.
compile
(
"\..*1805(\w|,|\s|-)*(\.)"
)
#不完美,简单示例
match
=
pattern.search(text)
if
match
is
not
None
:
print
(match.group())
#下面方法不用正则。先用.将句集分片,之后就可遍历了。
ss
=
text.split(
'.'
)
key_words
=
"1805"
words_list
=
[x.lower()
for
x
in
key_words.split()]
for
item
in
ss:
if
all
([word
in
item.lower()
and
True
or
False
for
word
in
words_list]):
print
(item)
|
上面的方法是已知目标网页为txt文本时的抓取。事实上,在自动抓取网页时,必须考虑目标网页是否为纯文本,用何种编码等问题.
如果只是编码问题,可以简单使用print(textPage.read(),'utf-8')等python字符处理方法来解决,如果抓取的是某个HTML,最好先分析,例如:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
from
urllib.request
import
urlopen
from
urllib.error
import
URLError,HTTPError
from
bs4
import
BeautifulSoup
try
:
html
=
urlopen(
"https://en.wikipedia.org/wiki/Python_(programming_language)"
)
except
(URLError,HTTPError) as e:
print
(e)
try
:
bsObj
=
BeautifulSoup(html,
"html.parser"
)
content
=
bsObj.find(
"div"
,{
"id"
:
"mw-content-text"
}).get_text()
except
AttributeError as e:
print
(e)
meta
=
bsObj.find(
"meta"
)
#print(bsObj)
if
meta.attrs[
'charset'
]
=
=
'UTF-8'
:
content
=
bytes(content,
"UTF-8"
)
print
(
"-----------------UTF-8--------------"
)
print
(content.decode(
"UTF-8"
))
if
meta.attrs[
'charset'
]
=
=
'iso-8859-1'
:
content
=
bytes(content,
"iso-8859-1"
)
print
(
"--------------iso-8859-1------------"
)
print
(content.decode(
"iso-8859-1"
))
|
2.抓取CSV文档 。
CSV文件是一种常见的数据存档文件,与TXT文档基本类似,但在内容组织上有一定格式,文件的首行为标题列,之后的文件中的每一行表示一个数据记录。这就像一个二维数据表或excel表格一样。 python3中包含一个csv解析库,可用于读写csv文件,但其读取目标一般要求是在本地,要读取远程网络上的csv文件需要用urllib.request.urlopen先获取。例如:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
|
#csv远程获取,内存加载读取
from
urllib.request
import
urlopen
import
csv
from
io
import
StringIO
#在内存中读写str,如果要操作二进制数据,就需要使用BytesIO
try
:
data
=
urlopen(
"http://pythonscraping.com/files/MontyPythonAlbums.csv"
).read().decode(
"ascii"
,
"ignore"
)
except
(URLError,HTTPError) as e:
print
(
"Errors:\n"
)
print
(e)
dataFile
=
StringIO(data)
csvReader
=
csv.reader(dataFile)
count
=
0
for
row
in
csvReader:
if
count <
10
:
print
(row)
else
:
print
(
"...\n..."
)
break
count
+
=
1
#将数据写入本地csv文件
with
open
(
"./localtmp.csv"
,
"wt"
,newline
=
'
',encoding='
utf
-
8
') as localcsvfile:
writer
=
csv.writer(localcsvfile)
count
=
0
try
:
for
row
in
csvReader:
if
count <
10
:
writer.writerow(row)
else
:
break
count
+
=
1
finally
:
localcsvfile.close()
|
csv文档的标题行(首行)需要特殊处理,csv.DictReader可以很好的解决这个问题。DictReader将读取的行转换为python字典对象,而不是列表。标题行的各列名即为字典的键名.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
#csv.DictReader读取csv文件,可以有效处理标题行等问题
from
urllib.request
import
urlopen
import
csv
from
io
import
StringIO
#在内存中读写str,如果要操作二进制数据,就需要使用BytesIO
try
:
data
=
urlopen(
"http://pythonscraping.com/files/MontyPythonAlbums.csv"
).read().decode(
"ascii"
,
"ignore"
)
except
(URLError,HTTPError) as e:
print
(
"Errors:\n"
)
print
(e)
dataFile
=
StringIO(data)
csvReader
=
csv.reader(dataFile)
dictReader
=
csv.DictReader(dataFile)
print
(dictReader.fieldnames)
count
=
0
for
row
in
dictReader:
if
count <
10
:
print
(row)
else
:
print
(
"...\n..."
)
break
count
+
=
1
|
3.抓取PDF文档 。
pdf文档的远程抓取与操作,可借助比较流行的pdfminer3k库来完成.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
|
#抓取并操作pdf
#pdf READ operation
from
urllib.request
import
urlopen
from
pdfminer.pdfinterp
import
PDFResourceManager,process_pdf
from
pdfminer.converter
import
TextConverter
from
pdfminer.layout
import
LAParams
from
io
import
StringIO,
open
def
readPDF(filename):
resmgr
=
PDFResourceManager()
#STEP 1
retstr
=
StringIO()
#STEP 2
laparams
=
LAParams()
#STEP 3
device
=
TextConverter(resmgr,retstr,laparams
=
laparams)
#STEP 4
process_pdf(resmgr,device,filename)
#STEP 5
device.close()
#STEP 6
content
=
retstr.getvalue()
retstr.close()
return
content
try
:
pdffile
=
urlopen(
"http://www.fit.vutbr.cz/research/groups/speech/servite/2010/rnnlm_mikolov.pdf"
)
except
(URLError,HTTPError) as e:
print
(
"Errors:\n"
)
print
(e)
outputString
=
readPDF(pdffile)
#也可以读取由pdffile=open("../../readme.pdf")语句打开的本地文件。
print
(outputString)
pdffile.close()
|
4.抓取WORD 。
老版word使用了二进制格式,后缀名为.doc,word2007后出现了与OPEN OFFICE类似的类XML格式文档,后缀名为.docx。python对word文档的支持不够,似乎没有完美解决方案。为读取docx内容,可以使用以下方法: (1)利用urlopen抓取远程word docx文件; (2)将其转换为内存字节流; (3)解压缩(docx是压缩后文件); (4)将解压后文件作为xml读取 (5)寻找xml中的标签(正文内容)并处理 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
#读取word docx文档内容
from
zipfile
import
ZipFile
from
urllib.request
import
urlopen
from
io
import
BytesIO
from
bs4
import
BeautifulSoup
wordFile
=
urlopen(
"http://pythonscraping.com/pages/AWordDocument.docx"
).read()
wordFile
=
BytesIO(wordFile)
document
=
ZipFile(wordFile)
#
xml_content
=
document.read(
"word/document.xml"
)
#print(xml_content.decode("utf-8"))
wordObj
=
BeautifulSoup(xml_content.decode(
"utf-8"
),
"lxml"
)
textStrings
=
wordObj.findAll(
"w:t"
)
for
textElem
in
textStrings:
print
(textElem.text)
|
5.抓取EXCEL 。
6.抓取HTML源文档 。
7.抓取HTML表单数据 。
8.抓取Javascript数据 。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我.
原文链接:https://blog.csdn.net/hhhparty/article/details/54917327 。
最后此篇关于python爬取各类文档方法归类汇总的文章就讲到这里了,如果你想了解更多关于python爬取各类文档方法归类汇总的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我怎样才能将 numberGrade 的值调高,如果它是 89.5,它会变成 90。numberGrade 被当作 double ,但将它设为 int 并不会向上或向下舍入。 public class
经过了漫长时间的移植和查询资料,得以解决一下嵌入式docker出现的问题,很多网上的资料全都是复制粘贴复制粘贴,找不到合适的解决方法让人很是苦恼,希望自己总结出的一些解决问题的经验给广大朋友减少一些
之前我是通过脚本来使用库的: 现在我使用 yarn 和 rollup 来构建带有下一个文件的项目。包.json: { "name": "maplib", "version": "1.0.0",
在 R 中,我正在尝试使用不同的窗口宽度对大向量(最多 400k 个元素)进行非常快速的滚动平均值,然后对于每个窗口宽度按每年的最大值汇总数据。下面的例子希望是清楚的。 我尝试了几种方法,到目前为止最
我想问一下我应该如何解决这个问题,因为我已经对这部分感到困惑和困惑。我已经使用这个命令全局安装了汇总 npm install --global rollup 但是,当我尝试运行“汇总”命令时,我应该期
我正在构建 javascript 库(更像是小部件),其中将包含一些 UI。我正在通过 javascript 向 DOM 添加 HTML 元素。要添加此 HTML,我有以下代码: async inse
我在显示一份报告时遇到了一些困难,该报告既可以将所有日期分组到月中,又可以对月中每天的“支出”求和。 我的 SQL 查询创建了这个:(检索所有日期) Date
我正在从事 Angular2 项目。我浏览了 Angular2 aot 文档并且能够生成 ngFactory 文件。我按照文档中的建议使用了 rollup js。我有一些非 es6 npm 包。我已经
我目前正在构建 Ionic 2-RC3 应用程序。但是自从我升级到 RC-1 后,我遇到了以下错误:(不确定它们是否保持不变,但你明白了)。 [15:16:17] rollup: Conflicti
Arabic, Egypt (ar_EG) -----------------------------阿拉伯语,埃及 Arabic, Israel (ar_IL) -----------------
我正在尝试汇总我的完全 es6 模块存储库,该存储库具有项目的本地导入/导出,以及对也是脚本或模块的依赖项的导入。 我也在尝试进行双重构建,通过汇总创建遗留的 iife 模块。 这仅适用于我的项目,没
我有一个由 DayTots 类对象组成的 VBA 集合(见下文) 我正在使用 For Each 遍历集合以创建一个 由汇总记录组成的新集合,基于日期 有什么方法可以用 Linq 做到这一点吗?我怀疑也
这是我第一次尝试理解/使用汇总。 我正在使用 this boilerplate因为它都是基于three.js,我也喜欢使用它。 到目前为止,我目前的(几乎肯定是不正确的)方法是: 从github下载样
我有两个 column_property 列,我想在 grandtotal 列中将它们加在一起。我希望能够根据 grandtotal 列进行排序和过滤。 如何对 subtotal 和 shipping
我收到以下错误消息: Error: Parse Error: Line 29: Unexpected token ILLEGAL 对应的代码行是 mobx 观察者装饰器: @observer clas
我真的坚持这一点,我真的很感激这方面的任何帮助。 目标是计算 Woocommerce 订单上每个类别中的项目数量,以便每个部分都可以以类别名称和产品数量为标题。例如: 汉堡 x 5 在此下方将是该订单
我正在从路由器收集传输数据;它提供每日,每月和每两分钟(间隔为120秒)的摘要。如果我在一天中(因此一个月中)重启路由器,则这些报告将不完整。但是,我仍然会得到间隔数据,并且可以对引导前后的记录进行汇
假设我有一个像这样的数据框: a b c d e f 1. 1 5 5 9 2 3 2. 4 7 3 1 4 6 3. 2 3 8 9
假设我有一个记录列表,我想通过取中位数来总结它。更具体地说,说我有 data Location = Location { x :: Double, y :: Double } 我有一个测量列表,我想将
我刚刚开始使用 AngularJS。我需要从 AngularJS 的书中升级这个购物车示例,以便所有 (items.price*item.quantity) 的总数显示在页面底部。实现它的推荐方法是什
我是一名优秀的程序员,十分优秀!