gpt4 book ai didi

python爬取各类文档方法归类汇总

转载 作者:qq735679552 更新时间:2022-09-28 22:32:09 27 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章python爬取各类文档方法归类汇总由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

HTML文档是互联网上的主要文档类型,但还存在如TXT、WORD、Excel、PDF、csv等多种类型的文档。网络爬虫不仅需要能够抓取HTML中的敏感信息,也需要有抓取其他类型文档的能力。下面简要记录一些个人已知的基于python3的抓取方法,以备查阅.

1.抓取TXT文档 。

在python3下,常用方法是使用urllib.request.urlopen方法直接获取。之后利用正则表达式等方式进行敏感词检索.

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
### Reading TXT doc ###
from urllib.request import urlopen
from urllib.error import URLError,HTTPError
import re
 
try :
  textPage = urlopen( "http://www.pythonscraping.com/pages/warandpeace/chapter1.txt" )
except (URLError,HTTPError) as e:
  print ( "Errors:\n" )
  print (e)
#print(textPage.read())
text = str (textPage.read())
 
#下面方法用正则匹配含1805的句子
pattern = re. compile ( "\..*1805(\w|,|\s|-)*(\.)" ) #不完美,简单示例
match = pattern.search(text)
if match is not None :
  print (match.group())
 
#下面方法不用正则。先用.将句集分片,之后就可遍历了。
ss = text.split( '.' )
key_words = "1805"
words_list = [x.lower() for x in key_words.split()]
for item in ss:
  if all ([word in item.lower() and True or False for word in words_list]):
   print (item)

上面的方法是已知目标网页为txt文本时的抓取。事实上,在自动抓取网页时,必须考虑目标网页是否为纯文本,用何种编码等问题.

如果只是编码问题,可以简单使用print(textPage.read(),'utf-8')等python字符处理方法来解决,如果抓取的是某个HTML,最好先分析,例如:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
from urllib.request import urlopen
from urllib.error import URLError,HTTPError
from bs4 import BeautifulSoup
try :
  html = urlopen( "https://en.wikipedia.org/wiki/Python_(programming_language)" )
except (URLError,HTTPError) as e:
  print (e)
try :
  bsObj = BeautifulSoup(html, "html.parser" )
  content = bsObj.find( "div" ,{ "id" : "mw-content-text" }).get_text()
except AttributeError as e:
  print (e)
 
meta = bsObj.find( "meta" )
#print(bsObj)
if meta.attrs[ 'charset' ] = = 'UTF-8' :
  content = bytes(content, "UTF-8" )
  print ( "-----------------UTF-8--------------" )
  print (content.decode( "UTF-8" ))
if meta.attrs[ 'charset' ] = = 'iso-8859-1' :
  content = bytes(content, "iso-8859-1" )
  print ( "--------------iso-8859-1------------" )
  print (content.decode( "iso-8859-1" ))

2.抓取CSV文档 。

CSV文件是一种常见的数据存档文件,与TXT文档基本类似,但在内容组织上有一定格式,文件的首行为标题列,之后的文件中的每一行表示一个数据记录。这就像一个二维数据表或excel表格一样。 python3中包含一个csv解析库,可用于读写csv文件,但其读取目标一般要求是在本地,要读取远程网络上的csv文件需要用urllib.request.urlopen先获取。例如:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
#csv远程获取,内存加载读取
from urllib.request import urlopen
import csv
from io import StringIO #在内存中读写str,如果要操作二进制数据,就需要使用BytesIO
 
try :
  data = urlopen( "http://pythonscraping.com/files/MontyPythonAlbums.csv" ).read().decode( "ascii" , "ignore" )
except (URLError,HTTPError) as e:
  print ( "Errors:\n" )
  print (e)
 
dataFile = StringIO(data)
csvReader = csv.reader(dataFile)
count = 0
for row in csvReader:
  if count < 10 :
   print (row)
  else :
   print ( "...\n..." )
   break
  count + = 1
 
#将数据写入本地csv文件
with open ( "./localtmp.csv" , "wt" ,newline = ' ',encoding=' utf - 8 ') as localcsvfile:
  writer = csv.writer(localcsvfile)
  count = 0
  try :
   for row in csvReader:
    if count < 10 :
     writer.writerow(row)
    else :
     break
    count + = 1
  finally :
   localcsvfile.close()

csv文档的标题行(首行)需要特殊处理,csv.DictReader可以很好的解决这个问题。DictReader将读取的行转换为python字典对象,而不是列表。标题行的各列名即为字典的键名.

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
#csv.DictReader读取csv文件,可以有效处理标题行等问题
from urllib.request import urlopen
import csv
from io import StringIO #在内存中读写str,如果要操作二进制数据,就需要使用BytesIO
 
try :
  data = urlopen( "http://pythonscraping.com/files/MontyPythonAlbums.csv" ).read().decode( "ascii" , "ignore" )
except (URLError,HTTPError) as e:
  print ( "Errors:\n" )
  print (e)
 
dataFile = StringIO(data)
csvReader = csv.reader(dataFile)
dictReader = csv.DictReader(dataFile)
print (dictReader.fieldnames)
count = 0
for row in dictReader:
  if count < 10 :
   print (row)
  else :
   print ( "...\n..." )
   break
  count + = 1

3.抓取PDF文档 。

pdf文档的远程抓取与操作,可借助比较流行的pdfminer3k库来完成.

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
#抓取并操作pdf
#pdf READ operation
from urllib.request import urlopen
from pdfminer.pdfinterp import PDFResourceManager,process_pdf
from pdfminer.converter import TextConverter
from pdfminer.layout import LAParams
from io import StringIO, open
 
def readPDF(filename):
  resmgr = PDFResourceManager() #STEP 1
  retstr = StringIO() #STEP 2
  laparams = LAParams() #STEP 3
  device = TextConverter(resmgr,retstr,laparams = laparams) #STEP 4
 
  process_pdf(resmgr,device,filename) #STEP 5
  device.close() #STEP 6
 
  content = retstr.getvalue()
  retstr.close()
  return content
 
try :
  pdffile = urlopen( "http://www.fit.vutbr.cz/research/groups/speech/servite/2010/rnnlm_mikolov.pdf" )
 
except (URLError,HTTPError) as e:
  print ( "Errors:\n" )
  print (e)
 
outputString = readPDF(pdffile) #也可以读取由pdffile=open("../../readme.pdf")语句打开的本地文件。
print (outputString)
pdffile.close()

4.抓取WORD 。

老版word使用了二进制格式,后缀名为.doc,word2007后出现了与OPEN OFFICE类似的类XML格式文档,后缀名为.docx。python对word文档的支持不够,似乎没有完美解决方案。为读取docx内容,可以使用以下方法: (1)利用urlopen抓取远程word docx文件; (2)将其转换为内存字节流; (3)解压缩(docx是压缩后文件); (4)将解压后文件作为xml读取 (5)寻找xml中的标签(正文内容)并处理 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
#读取word docx文档内容
from zipfile import ZipFile
from urllib.request import urlopen
from io import BytesIO
from bs4 import BeautifulSoup
 
wordFile = urlopen( "http://pythonscraping.com/pages/AWordDocument.docx" ).read()
wordFile = BytesIO(wordFile)
document = ZipFile(wordFile) #
xml_content = document.read( "word/document.xml" )
#print(xml_content.decode("utf-8"))
 
wordObj = BeautifulSoup(xml_content.decode( "utf-8" ), "lxml" )
textStrings = wordObj.findAll( "w:t" )
for textElem in textStrings:
  print (textElem.text)

5.抓取EXCEL 。

6.抓取HTML源文档 。

7.抓取HTML表单数据 。

8.抓取Javascript数据 。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我.

原文链接:https://blog.csdn.net/hhhparty/article/details/54917327 。

最后此篇关于python爬取各类文档方法归类汇总的文章就讲到这里了,如果你想了解更多关于python爬取各类文档方法归类汇总的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com