gpt4 book ai didi

Python3实现爬取指定百度贴吧页面并保存页面数据生成本地文档的方法

转载 作者:qq735679552 更新时间:2022-09-28 22:32:09 26 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章Python3实现爬取指定百度贴吧页面并保存页面数据生成本地文档的方法由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

分享给大家供大家参考,具体如下:Python3实现爬取指定百度贴吧页面并保存页面数据生成本地文档的方法。分享给大家供大家参考,具体如下:

首先我们创建一个python文件, tieba.py,我们要完成的是,输入指定百度贴吧名字与指定页面范围之后爬取页面html代码,我们首先观察贴吧url的规律,比如:

百度贴吧LOL吧第一页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0 。

第二页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50 。

第三页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100 。

发现规律了吧,贴吧中每个页面不同之处,就是url最后的pn的值,其余的都是一样的,我们可以抓住这个规律(kw表示贴吧名,采用url编码).

清楚了url规则,我们便可以利用urllib进行批量式数据爬取,代码如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
# -*- coding:utf-8 -*-
from urllib import request as urllib2
from urllib import parse
import random
def loadPage(url, page):
   '''
   根据url获取服务器响应文件
   url:需要爬取的url
   '''
   print ( '---------正在下载页面%d-------' % page)
   ua_list = [
     "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1" ,
     "Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1" ,
     "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11" ,
     "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11" ,
     "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"
   ]
   header = random.choice(ua_list)
   request = urllib2.Request(url)
   request.add_header( 'User-Agent' , header)
   response = urllib2.urlopen(request)
   html = response.read()
   return html
def write(html, page):
   '''
   将html文件写入本地
   :param html: 服务器响应文件内容
   :return:
   '''
   data = html
   file_name = 'tieba{}.txt' . format (page)
   print ( '---------正在保存文件%s-------' % file_name)
   # 运用with open as语句使代码更加简洁 避免写异常处理和文件关闭语句
   with open (file_name, 'w' ,encoding = 'utf-8' ) as file :
     file .write(data.decode())
   print ( '---------success!---------' )
def tiebaSpider(url, kw, begin, end):
   '''
   爬取贴吧信息
   '''
   words = {
     'kw' :kw
   }
   kw = parse.urlencode(words)
   url = url % (kw)
   for page in range (begin, end + 1 ):
     pn = ((page - 1 ) * 50 )
     ful_url = url + str (pn)
     html = loadPage(url, page)
     write(html, page)
if __name__ = = '__main__' :
   kw = input ( '请输入爬取贴吧名:' )
   beginPage = int ( input ( '请输入起始页:' ))
   endPage = int ( input ( '请输入结束页:' ))
   url = r 'http://tieba.baidu.com/f?%s&pn='
   tiebaSpider(url, kw, beginPage, endPage)

控制台结果如下:

请输入爬取贴吧名:河南 请输入起始页:1 请输入结束页:3 ---------正在下载页面1------- ---------正在保存文件tieba1.txt------- ---------success!--------- ---------正在下载页面2------- ---------正在保存文件tieba2.txt------- ---------success!--------- ---------正在下载页面3------- ---------正在保存文件tieba3.txt------- ---------success!--------- Process finished with exit code 0 。

希望本文所述对大家Python程序设计有所帮助.

原文链接:https://blog.csdn.net/wangbowj123/article/details/79123789 。

最后此篇关于Python3实现爬取指定百度贴吧页面并保存页面数据生成本地文档的方法的文章就讲到这里了,如果你想了解更多关于Python3实现爬取指定百度贴吧页面并保存页面数据生成本地文档的方法的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com