- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章python爬虫爬取某站上海租房图片由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
对于一个net开发这爬虫真真的以前没有写过。这段时间开始学习python爬虫,今天周末无聊写了一段代码爬取上海租房图片,其实很简短就是利用爬虫的第三方库Requests与BeautifulSoup。python 版本:python3.6 ,IDE :pycharm。其实就几行代码,但希望没有开发基础的人也能一下子看明白,所以大神请绕行.
第三方库首先安装 。
我是用的pycharm所以另为的脚本安装我这就不介绍了.
如上图打开默认设置选择Project Interprecter,双击pip或者点击加号,搜索要安装的第三方库。其中如果建立的项目多记得Project Interprecter要选择正确的安装位置不然无法导入.
Requests库 。
requests库的官方定义:Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用。其实他就是请求网络获取网页数据的.
1
2
3
4
5
6
7
|
import
requests
header
=
{
'User-Agent'
:
'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
}
res
=
requests.get(
'http://sh.58.com/zufang/'
,headers
=
header)
try
:
print
(res.text);
except
ConnectionError:
print
(
'访问被拒绝!!!'
)
|
结果如下:
其中Request Headers的参数如下:
1
2
3
4
5
6
7
8
9
10
11
|
#headers的一些属性:
#Accept:指定客户端能够接收的内容类型,内容类型的先后次序表示客户都接收的先后次序
#Accept-Lanuage:指定HTTP客户端浏览器用来展示返回信息优先选择的语言
#Accept-Encoding指定客户端浏览器可以支持的web服务器返回内容压缩编码类型。表示允许服务器在将输出内容发送到客户端以前进行压缩,以节约带宽。而这里设置的就是客户端浏览器所能够支持的返回压缩格式。
#Accept-Charset:HTTP客户端浏览器可以接受的字符编码集
# User-Agent : 有些服务器或 Proxy 会通过该值来判断是否是浏览器发出的请求
# Content-Type : 在使用 REST 接口时,服务器会检查该值,用来确定 HTTP Body 中的内容该怎样解析。
# application/xml : 在 XML RPC,如 RESTful/SOAP 调用时使用
# application/json : 在 JSON RPC 调用时使用
# application/x-www-form-urlencoded : 浏览器提交 Web 表单时使用
# 在使用服务器提供的 RESTful 或 SOAP 服务时, Content-Type 设置错误会导致服务器拒绝服务
|
BeautifulSoup库 。
BeautifulSoup可以轻松的解析Requests库请求的页面,并把页面源代码解析为Soup文档,一边过滤提取数据。这是bs4.2的文档.
Beautiful Soup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,如果我们不安装它,则 Python 会使用 Python默认的解析器,其中lxml 据说是相对而言比较强大的我下面的暗示是python 标准库的.
选择器select 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
|
# 选择所有div标签
soup.select(
"div"
)
# 选择所有p标签中的第三个标签
soup.select(
"p:nth-of-type(3)"
)
相当于soup.select(p)[
2
]
# 选择div标签下的所有img标签
soup.select(
"div img"
)
# 选择div标签下的直接a子标签
soup.select(
"div > a"
)
# 选择id=link1后的所有兄弟节点标签
soup.select(
"#link1 ~ .mybro"
)
# 选择id=link1后的下一个兄弟节点标签
soup.select(
"#link1 + .mybro"
)
# 选择a标签,其类属性为className的标签
soup.select(
"a .className"
)
# 选择a标签,其id属性为idName的标签
soup.select(
"a #idName"
)
# 选择a标签,其属性中存在attrName的所有标签
soup.select(
"a[attrName]"
)
# 选择a标签,其属性href=http://wangyanling.com的所有标签
soup.select(
"a[href='http://wangyanling.com']"
)
# 选择a标签,其href属性以http开头
soup.select(
'a[href^="http"]'
)
# 选择a标签,其href属性以lacie结尾
soup.select(
'a[href$="lacie"]'
)
# 选择a标签,其href属性包含.com
soup.select(
'a[href*=".com"]'
)
# 从html中排除某标签,此时soup中不再有script标签
[s.extract()
for
s
in
soup(
'script'
)]
# 如果想排除多个呢
[s.extract()
for
s
in
soup([
'script'
,
'fram'
]
|
BeautifulSoup库需要学习的知识点,请参考bs4.2的文档。在这不再过多叙述.
1
2
3
4
5
6
|
import
requests
from
bs4
import
BeautifulSoup
header
=
{
'User-Agent'
:
'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
}
res
=
requests.get(
'http://cd.58.com/zufang/'
,headers
=
header)
soup
=
BeautifulSoup(res.text,
'html.parser'
)
print
(soup.prettify())
|
案例:爬取上海租房图片 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
|
import
requests
import
urllib.request
import
os
import
time
from
bs4
import
BeautifulSoup
header
=
{
'User-Agent'
:
'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36'
}
url
=
[
'http://sh.58.com/zufang/pn{}/?ClickID=2'
.
format
(number)
for
number
in
range
(
6
,
51
)]
#分页抓取
adminCout
=
6
for
arurl
in
url:
adminCout
=
adminCout
+
1
res
=
requests.get(arurl,headers
=
header)
soup
=
BeautifulSoup(res.text,
'html.parser'
)
arryImg
=
soup.select(
'.img_list img'
)
print
(arryImg)
count
=
0
;
for
img
in
arryImg:
print
(img[
'lazy_src'
])
_url
=
img[
'lazy_src'
]
pathName
=
"E:\\2333\\" + str(adminCout)+"
_
"+str(count) + "
.jpg"
# 设置路径和文件名
result
=
urllib.request.urlopen(_url)
# 打开链接,和python2.x不同请注意了
data
=
result.read()
# 否则开始下载到本地
with
open
(pathName,
"wb"
) as code:
code.write(data)
code.close()
count
=
count
+
1
# 计数+1
print
(
"正在下载第:"
, count)
time.sleep(
30
)
|
只是实现功能,至于代码结果如下:
结语:
对于python并非为了从net跳出来,学习python只是感兴趣,但是通过这段时间的学习确实有些思想从net的思路中跳了出来,接下来一年的业余时间应该都会花在学习python上,还希望自己能坚持下去。这应该是2017年最后一篇文章,在这给大家拜个早年.
原文链接:https://www.cnblogs.com/kmonkeywyl/p/8409715.html 。
最后此篇关于python爬虫爬取某站上海租房图片的文章就讲到这里了,如果你想了解更多关于python爬虫爬取某站上海租房图片的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 要求我们推荐或查找工具、库或最喜欢的场外资源的问题对于 Stack Overflow 来说是偏离主题的,
我是一名优秀的程序员,十分优秀!