gpt4 book ai didi

使用Selenium实现微博爬虫(预登录、展开全文、翻页)

转载 作者:qq735679552 更新时间:2022-09-29 22:32:09 25 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章使用Selenium实现微博爬虫(预登录、展开全文、翻页)由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

前言

在csdn发的第一篇文章,时隔两年,终于实现了爬微博的自由!本文可以解决微博预登录、识别“展开全文”并爬取完整数据、翻页设置等问题。由于刚接触爬虫,有部分术语可能用的不正确,请大家多指正! 。

1、区分动态爬虫和静态爬虫

1、静态网页 静态网页是纯粹的html,没有后台数据库,不含程序,不可交互,体量较少,加载速度快。静态网页的爬取只需四个步骤:发送请求、获取相应内容、解析内容及保存数据.

2、动态网页 动态网页上的数据会随时间及用户交互发生变化,因此数据不会直接呈现在网页源代码中,数据将以json的形式保存起来。因此,动态网页比静态网页多了一步,即需渲染获得相关数据.

3、区分动静态网页的方法 加载网页后,点击右键,选中“查看网页源代码”,如果网页上的绝大多数字段都出现源代码中,那么这就是静态网页,否则是动态网页.

使用Selenium实现微博爬虫(预登录、展开全文、翻页)

2、动态爬虫的两种方法

1.逆向分析爬取动态网页 适用于调度资源所对应网址的数据为json格式,javascript的触发调度。主要步骤是获取需要调度资源所对应的网址-访问网址获得该资源的数据。(此处不详细讲解) 。

2.使用selenium库爬取动态网页 使用selenium库,该库使用javascript模拟真实用户对浏览器进行操作。本案例将使用该方法.

3、安装selenium库及下载浏览器补丁

1.selenium库使用pip工具进行安装即可。 2.下载与chrome浏览器版本匹配的浏览器补丁。 step1:查看chrome的版本 。

使用Selenium实现微博爬虫(预登录、展开全文、翻页)

step2:去下载相应版本的浏览器补丁。网址: step3:解压文件,并将之放到与python.exe同一文件下 。

使用Selenium实现微博爬虫(预登录、展开全文、翻页)

4、页面打开及预登录

1.导入selenium包 。

?
1
2
3
4
5
6
from selenium import webdriver
from selenium.webdriver.support import expected_conditions as ec
from selenium.webdriver.support.ui import webdriverwait
from selenium.webdriver.common.by import by
import time
import pandas as pd

2.打开页面 。

?
1
2
3
4
5
6
7
driver = webdriver.chrome()   
print ( '准备登陆weibo.cn网站...' )
#发送请求
driver.get( "https://login.sina.com.cn/signup/signin.php" )
wait = webdriverwait(driver, 5 )
#重要:暂停1分钟进行预登陆,此处填写账号密码及验证
time.sleep( 60 )

3.采用交互式运行,运行完上面两段程序,会弹出一个框,这个框就是用来模拟网页的交互。在这个框中完成登录(包括填写登录名、密码及短信验证等) 。

使用Selenium实现微博爬虫(预登录、展开全文、翻页)

4.完成预登录,则进入个人主页 。

使用Selenium实现微博爬虫(预登录、展开全文、翻页)

5、关键词搜索操作

1.定位上图中的关键词输入框,并在框中输入搜索对象,如“努力学习” 。

?
1
2
3
4
5
6
7
8
#使用selector去定位关键词搜索框
s_input = driver.find_element_by_css_selector( '#search_input' )
#向搜索框中传入字段
s_input.send_keys( "努力学习" )
#定位搜索键
confirm_btn = driver.find_element_by_css_selector( '#search_submit' )
#点击
confirm_btn.click()

2.当完成上步的代码运行后,会弹出新的窗口,从个人主页跳到微博搜索页。但是driver仍在个人主页,需要人为进行driver的移动,将之移动到微博搜索页.

使用Selenium实现微博爬虫(预登录、展开全文、翻页)

3.使用switch_to.window()方法移位 。

?
1
2
#人为移动driver
driver.switch_to.window(driver.window_handles[ 1 ])

6、识别“展开全文”并爬取数据

1.了解每个元素的selector,用以定位(重点在于唯一标识性) 。

使用Selenium实现微博爬虫(预登录、展开全文、翻页)

2.使用selector定位元素,并获取相应的数据 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
comment = []
username = []
 
#抓取节点:每个评论为一个节点(包括用户信息、评论、日期等信息),如果一页有20条评论,那么nodes的长度就为20
nodes = driver.find_elements_by_css_selector( 'div.card > div.card-feed > div.content' )
 
#对每个节点进行循环操作
for i in range ( 0 , len (nodes), 1 ):
     #判断每个节点是否有“展开全文”的链接
     flag = false
     try :
         nodes[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).is_displayed()
         flag = true 
     except :
         flag = false
    
     #如果该节点具有“展开全文”的链接,且该链接中的文字是“展开全文c”,那么点击这个要素,并获取指定位置的文本;否则直接获取文本
     #(两个条件需要同时满足,因为该selector不仅标识了展开全文,还标识了其他元素,没有做到唯一定位)
     if (flag and nodes[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).text.startswith( '展开全文c' )):
         nodes[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).click()
         comment.append(nodes[i].find_element_by_css_selector( 'p[node-type="feed_list_content_full"]' ).text)
     else :
         comment.append(nodes[i].find_element_by_css_selector( 'p[node-type="feed_list_content"]' ).text)
     username.append(nodes[i].find_element_by_css_selector( "div.info>div:nth-child(2)>a" ).text)

7、设置翻页

1.使用for循环实现翻页,重点在于识别“下一页”按钮,并点击它 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
for page in range ( 49 ):
     print (page)
     # 定位下一页按钮
     nextpage_button = driver.find_element_by_link_text( '下一页' )
     #点击按键
     driver.execute_script( "arguments[0].click();" , nextpage_button)
     wait = webdriverwait(driver, 5 )
     #与前面类似
     nodes1 = driver.find_elements_by_css_selector( 'div.card > div.card-feed > div.content' )
     for i in range ( 0 , len (nodes1), 1 ):
         flag = false
         try :
             nodes1[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).is_displayed()
             flag = true
        
         except :
             flag = false
         if (flag and nodes1[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).text.startswith( '展开全文c' )):
             nodes1[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).click()
             comment.append(nodes1[i].find_element_by_css_selector( 'p[node-type="feed_list_content_full"]' ).text)
         else :
             comment.append(nodes1[i].find_element_by_css_selector( 'p[node-type="feed_list_content"]' ).text)
         username.append(nodes1[i].find_element_by_css_selector( "div.info>div:nth-child(2)>a" ).text)

8、保存数据

1.使用dataframe保存字段 。

?
1
data = pd.dataframe({ 'username' :username, 'comment' :comment})

使用Selenium实现微博爬虫(预登录、展开全文、翻页)

2.导出到excel 。

?
1
data.to_excel( "weibo.xlsx" )

9、完整代码

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
from selenium import webdriver
from selenium.webdriver.support import expected_conditions as ec
from selenium.webdriver.support.ui import webdriverwait
from selenium.webdriver.common.by import by
from bs4 import beautifulsoup
import time
import pandas as pd
 
'''打开网址,预登陆'''
driver = webdriver.chrome()   
print ( '准备登陆weibo.cn网站...' )
#发送请求
driver.get( "https://login.sina.com.cn/signup/signin.php" )
wait = webdriverwait(driver, 5 )
#重要:暂停1分钟进行预登陆,此处填写账号密码及验证
time.sleep( 60 )
 
'''输入关键词到搜索框,完成搜索'''
#使用selector去定位关键词搜索框
s_input = driver.find_element_by_css_selector( '#search_input' )
#向搜索框中传入字段
s_input.send_keys( "努力学习" )
#定位搜索键
confirm_btn = driver.find_element_by_css_selector( '#search_submit' )
#点击
confirm_btn.click()
 
#人为移动driver
driver.switch_to.window(driver.window_handles[ 1 ])
 
'''爬取第一页数据'''
comment = []
username = []
 
#抓取节点:每个评论为一个节点(包括用户信息、评论、日期等信息),如果一页有20条评论,那么nodes的长度就为20
nodes = driver.find_elements_by_css_selector( 'div.card > div.card-feed > div.content' )
 
#对每个节点进行循环操作
for i in range ( 0 , len (nodes), 1 ):
     #判断每个节点是否有“展开全文”的链接
     flag = false
     try :
         nodes[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).is_displayed()
         flag = true 
     except :
         flag = false
    
     #如果该节点具有“展开全文”的链接,且该链接中的文字是“展开全文c”,那么点击这个要素,并获取指定位置的文本;否则直接获取文本
     #(两个条件需要同时满足,因为该selector不仅标识了展开全文,还标识了其他元素,没有做到唯一定位)
     if (flag and nodes[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).text.startswith( '展开全文c' )):
         nodes[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).click()
         comment.append(nodes[i].find_element_by_css_selector( 'p[node-type="feed_list_content_full"]' ).text)
     else :
         comment.append(nodes[i].find_element_by_css_selector( 'p[node-type="feed_list_content"]' ).text)
     username.append(nodes[i].find_element_by_css_selector( "div.info>div:nth-child(2)>a" ).text)
 
'''循环操作,获取剩余页数的数据'''
for page in range ( 49 ):
     print (page)
     # 定位下一页按钮
     nextpage_button = driver.find_element_by_link_text( '下一页' )
     #点击按键
     driver.execute_script( "arguments[0].click();" , nextpage_button)
     wait = webdriverwait(driver, 5 )
     #与前面类似
     nodes1 = driver.find_elements_by_css_selector( 'div.card > div.card-feed > div.content' )
     for i in range ( 0 , len (nodes1), 1 ):
         flag = false
         try :
             nodes1[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).is_displayed()
             flag = true
        
         except :
             flag = false
         if (flag and nodes1[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).text.startswith( '展开全文c' )):
             nodes1[i].find_element_by_css_selector( "p>a[action-type='fl_unfold']" ).click()
             comment.append(nodes1[i].find_element_by_css_selector( 'p[node-type="feed_list_content_full"]' ).text)
         else :
             comment.append(nodes1[i].find_element_by_css_selector( 'p[node-type="feed_list_content"]' ).text)
         username.append(nodes1[i].find_element_by_css_selector( "div.info>div:nth-child(2)>a" ).text)
 
'''保存数据'''
data = pd.dataframe({ 'username' :username, 'comment' :comment})
data.to_excel( "weibo.xlsx" )

到此这篇关于使用selenium实现微博爬虫(预登录、展开全文、翻页)的文章就介绍到这了,更多相关selenium 微博爬虫 内容请搜索我以前的文章或继续浏览下面的相关文章希望大家以后多多支持我! 。

原文链接:https://blog.csdn.net/weixin_42863719/article/details/115586194 。

最后此篇关于使用Selenium实现微博爬虫(预登录、展开全文、翻页)的文章就讲到这里了,如果你想了解更多关于使用Selenium实现微博爬虫(预登录、展开全文、翻页)的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com