- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章python3使用scrapy生成csv文件代码示例由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
去腾讯招聘网的信息,这个小项目有人做过,本着一个新手学习的目的,所以自己也来做着玩玩,大家可以参考一下.
这里使用的是调用cmdline命令来生成csv文件,而不是importcsv模块.
1
2
|
from
scrapy
import
cmdline
cmdline.execute(
"scrapy crawl field -o info.csv -t csv"
.split())
|
这段代码我保存在一个自建的.py文件中,然后在主文件中调用这个模块,这样就不用每次在cmd中敲命令了,大家可以使用这种方法我觉得很方便的.
进入正题(获取腾讯招聘网的信息http://hr.tencent.com/position.php):
保存的csv文件内容:
我们需要获取的数据首先应该使用scrapy的items容器记录下来:
1
2
3
4
5
6
7
8
|
import scrapy
class
GetItem(scrapy.Item):
name = scrapy.Field()
#招聘单位
genre = scrapy.Field()
#招聘类型
number = scrapy.Field()
#招聘人数
place = scrapy.Field()
#招聘地点
time = scrapy.Field()
#招聘时间
|
以上为我们等一下需要获取的信息 。
然后我们新建spider文件来编写爬去网站的代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
|
# _*_ coding:utf-8 _*_
import
scrapy
from
scrapy.http
import
Request
from
time
import
sleep
import
os
import
sys
sys.path.append(
"D:\PYscrapy\get_Field"
)
#我使用这种路径添加的方式来调用GetItem函数和main函数
from
get_Field.items
import
GetItem
import
main
#main函数开头就说了两行调用程序的代码,你也可以在cmd中使用scrapy crawl field -o info.csv -t csv来调用。主要是方便
class
Tencentzhaopin(scrapy.Spider):
name
=
"field"
#这个程序要执行的唯一标识名 可以自己设置
start_urls
=
[
"http://hr.tencent.com/position.php?&start=0#a"
] #首页网址
url
=
"http://hr.tencent.com/"
#由于有翻页操作所以我们设置翻页前缀,等一下获取后缀
count
=
0
names
=
[]
#这五个列表记录我们获取的信息
genres
=
[]
numbers
=
[]
places
=
[]
times
=
[]
filename
=
"data.txt"
#保存的文件名
if
os.path.exists(filename)
=
=
True
:
#判断这个文件是否已经存在文件夹中,有就移除掉。
os.remove(filename)
def
parse(
self
,response):
self
.count
+
=
1
#设置我们需要爬去多少页,不设置的话会有几百页需要爬取
name
=
response.xpath(
'//table//td[@class="l square"]//a//text()'
).extract()
#通过xpath方法获取我们需要的内容,再使用extract()抽取器获取到
for
i
in
name:
#利用循环将每一次的内容存入我们上面设置的列表中去,方便后面存入csv文件(下面4个类似)
self
.names.append(i)
genre
=
response.xpath(
'//table//tr[not(@class="h")]//td[2][not(@align="center")]//text()'
).extract()
for
i
in
genre:
self
.genres.append(i)
number
=
response.xpath(
'//table//tr[not(@class="h")]//td[3][not(@align="center")]//text()'
).extract()
for
i
in
number:
self
.numbers.append(i)
place
=
response.xpath(
'//table//tr[not(@class="h")]//td[4][not(@align="center")]//text()'
).extract()
for
i
in
place:
self
.places.append(i)
time
=
response.xpath(
'//table//tr[not(@class="h")]//td[5][not(@align="center")]//text()'
).extract()
for
i
in
time:
self
.times.append(i)
new_url
=
response.xpath(
'//*[@id="next"]//@href'
).extract()
#前面我们说过需要翻页操作,所以这里是获取到翻页的后缀
new_url
=
self
.url
+
new_url[
0
]
#再与前缀结合,获取到一个完整的下一页链接
sleep(
0.5
)
#我们设置一个翻页的时间,太快了不好。。。。(我是这样想的)
#下面就是信息存入items容器
for
i
in
range
(
len
(
self
.genres)):
#for循环列表的长度,获取到所有信息
info
=
GetItem()
#实例一个类info用来保存数据
info[
"name"
]
=
self
.names[i]
#将每一个属性列表中的每一个数据保存依次保存到info中去
info[
"genre"
]
=
self
.genres[i]
info[
"number"
]
=
self
.numbers[i]
info[
"place"
]
=
self
.places[i]
info[
"time"
]
=
self
.times[i]
yield
info
#这个yield注意了,嗯,这就很舒服了
#我们将每一次保存的数据返回,但是返回了我们还需要程序继续执行,所以使用yield函数返回后继续执行
if
self
.count<
=
20
:
yield
Request(url
=
new_url,callback
=
self
.parse)
#如果满足20页以内,我们callback返回下一页的链接继续到parse这个默认函数,
|
以上是spider中的代码.
其实实现这个代码不难,唯一有一点小疑惑的地方可能就是第一个yield的使用,一开始我是使用调用一个新的函数,然后在里面实现值的返回,但是麻烦还有一点小问题,所以这里我们就是用这种简单的方式就行了,yield将每次循环的数据返回,返回后再继续执行循环.
总结 。
以上就是本文关于python3使用scrapy生成csv文件代码示例的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持! 。
原文链接:http://blog.csdn.net/qq_36523839/article/details/72730626#comments 。
最后此篇关于python3使用scrapy生成csv文件代码示例的文章就讲到这里了,如果你想了解更多关于python3使用scrapy生成csv文件代码示例的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我尝试理解[c代码 -> 汇编]代码 void node::Check( data & _data1, vector& _data2) { -> push ebp -> mov ebp,esp ->
我需要在当前表单(代码)的上下文中运行文本文件中的代码。其中一项要求是让代码创建新控件并将其添加到当前窗体。 例如,在Form1.cs中: using System.Windows.Forms; ..
我有此 C++ 代码并将其转换为 C# (.net Framework 4) 代码。有没有人给我一些关于 malloc、free 和 sprintf 方法的提示? int monate = ee; d
我的网络服务器代码有问题 #include #include #include #include #include #include #include int
给定以下 html 代码,将列表中的第三个元素(即“美丽”一词)以斜体显示的 CSS 代码是什么?当然,我可以给这个元素一个 id 或一个 class,但 html 代码必须保持不变。谢谢
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 7 年前。
我试图制作一个宏来避免重复代码和注释。 我试过这个: #define GrowOnPage(any Page, any Component) Component.Width := Page.Surfa
我正在尝试将我的旧 C++ 代码“翻译”成头条新闻所暗示的 C# 代码。问题是我是 C# 中的新手,并不是所有的东西都像 C++ 中那样。在 C++ 中这些解决方案运行良好,但在 C# 中只是不能。我
在 Windows 10 上工作,R 语言的格式化程序似乎没有在 Visual Studio Code 中完成它的工作。我试过R support for Visual Studio Code和 R-T
我正在处理一些报告(计数),我必须获取不同参数的计数。非常简单但乏味。 一个参数的示例查询: qCountsEmployee = ( "select count(*) from %s wher
最近几天我尝试从 d00m 调试网络错误。我开始用尽想法/线索,我希望其他 SO 用户拥有可能有用的宝贵经验。我希望能够提供所有相关信息,但我个人无法控制服务器环境。 整个事情始于用户注意到我们应用程
我有一个 app.js 文件,其中包含如下 dojo amd 模式代码: require(["dojo/dom", ..], function(dom){ dom.byId('someId').i
我对“-gencode”语句中的“code=sm_X”选项有点困惑。 一个例子:NVCC 编译器选项有什么作用 -gencode arch=compute_13,code=sm_13 嵌入库中? 只有
我为我的表格使用 X-editable 框架。 但是我有一些问题。 $(document).ready(function() { $('.access').editable({
我一直在通过本教程学习 flask/python http://blog.miguelgrinberg.com/post/the-flask-mega-tutorial-part-i-hello-wo
我想将 Vim 和 EMACS 用于 CNC、G 代码和 M 代码。 Vim 或 EMACS 是否有任何语法或模式来处理这种类型的代码? 最佳答案 一些快速搜索使我找到了 this vim 和 thi
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?更新问题,使其成为 on-topic对于堆栈溢出。 7年前关闭。 Improve this
这个问题在这里已经有了答案: Enabling markdown highlighting in Vim (5 个回答) 6年前关闭。 当我在 Vim 中编辑包含 Markdown 代码的 READM
我正在 Swift3 iOS 中开发视频应用程序。基本上我必须将视频 Assets 和音频与淡入淡出效果合并为一个并将其保存到 iPhone 画廊。为此,我使用以下方法: private func d
pipeline { agent any stages { stage('Build') { steps { e
我是一名优秀的程序员,十分优秀!