gpt4 book ai didi

Python 制作糗事百科爬虫实例

转载 作者:qq735679552 更新时间:2022-09-27 22:32:09 26 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章Python 制作糗事百科爬虫实例由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

早上起来闲来无事做,莫名其妙的就弹出了糗事百科的段子,转念一想既然你送上门来,那我就写个爬虫到你网站上爬一爬吧,一来当做练练手,二来也算找点乐子.

其实这两天也正在接触数据库的内容,可以将爬取下来的数据保存在数据库中,以待以后的利用。好了,废话不多说了,先来看看程序爬取的数据结果 。

Python 制作糗事百科爬虫实例

值得一提的是,我在程序中想一下子爬取糗事百科 30 页的内容,但是出现了连接错误,当我把页数降到 20 页的时候,程序就可以正常的跑起来了,不知道是什么原因,渴望知道的大神可以告诉我一声,感激不尽.

程序非常简单,直接上源代码咯 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
# coding=utf8
 
import re
import requests
from lxml import etree
from multiprocessing.dummy import Pool as ThreadPool
import sys
 
reload (sys)
sys.setdefaultencoding( 'utf-8' )
 
 
def getnewpage(url, total):
  nowpage = int (re.search( '(\d+)' , url, re.S).group( 1 ))
  urls = []
 
  for i in range (nowpage, total + 1 ):
   link = re.sub( '(\d+)' , '%s' % i, url, re.S)
   urls.append(link)
 
  return urls
 
 
def spider(url):
  html = requests.get(url)
  selector = etree.HTML(html.text)
 
  author = selector.xpath( '//*[@id="content-left"]/div/div[1]/a[2]/@title' )
  content = selector.xpath( '//*[@id="content-left"]/div/div[2]/text()' )
  vote = selector.xpath( '//*[@id="content-left"]/div/div[3]/span/i/text()' )
 
  length = len (author)
  for i in range ( 0 , length):
   f.writelines( '作者 : ' + author[i] + '\n' )
   f.writelines( '内容 :' + str (content[i]).replace( '\n' ,' ') + ' \n')
   f.writelines( '支持 : ' + vote[i] + '\n\n' )
 
 
if __name__ = = '__main__' :
 
  f = open ( 'info.txt' , 'a' )
  url = 'http://www.qiushibaike.com/text/page/1/'
  urls = getnewpage(url, 20 )
 
  pool = ThreadPool( 4 )
  pool. map (spider,urls)
  f.close()

如果其中有不懂得部分,可以依次参考我的前三篇文章.

最后此篇关于Python 制作糗事百科爬虫实例的文章就讲到这里了,如果你想了解更多关于Python 制作糗事百科爬虫实例的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com