gpt4 book ai didi

mysql - Scrapy 批量插入

转载 作者:行者123 更新时间:2023-11-29 23:03:41 25 4
gpt4 key购买 nike

我有一个爬虫,可以从多个网站获取数据并将信息更新到 mysql 表中。我正在使用 scrapy 编写爬虫。爬虫将插入/更新大量列。 scrapy中是否可以批量插入/更新项目?

最佳答案

不确定你在问什么,但是你可以在scrapy项目的pipelines.py中设置一个mysql管道,如下所示:

class SQL(object):
def __init__(self):
self.conn = MySQLdb.connect(user='user', passwd='pass', db='DB', host='servername', charset='utf8')
self.cursor = self.conn.cursor()

def process_item(self, item, spider):
try:
self.cursor.execute('INSERT INTO table (month, year, date) VALUES (%s,%s,%s)', (item['month'], item['year'], item['date']))
self.conn.commit()
except MySQLdb.Error, e:
print item
print "Error %d: %s" % (e.args[0], e.args[1])
return item

然后在settings.py中启用它

ITEM_PIPELINES = {'PROJECTNAME.pipelines.SQL': 300}

关于mysql - Scrapy 批量插入,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28381989/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com