gpt4 book ai didi

Python计算大文件中的单词数

转载 作者:行者123 更新时间:2023-11-30 23:32:57 25 4
gpt4 key购买 nike

我有一个 6M 行数据库(sqlite),包含 4 个字段:id(integer)|title(text)|text(text)|tags(text)。

现在我需要计算标题中出现的每个单词的出现次数,并将其导入到其他表中,例如 word|count 和 tag|word|count。

我的代码在 Python 2.7 中如下所示:

from nltk.tokenize import wordpunct_tokenize
from collections import Counter
import sqlite3

word_count = Counter()
pair_count = Counter()

conn = sqlite3.connect('database')
c = conn.cursor()

for query in c.execute('SELECT Tags, Title FROM data'):
tags = query[0].strip().split()
title = wordpunct_tokenize(query[1])
for word in title:
word_count[word] += 1
for tag in tags:
pair_count[(tag, word)] += 1
...

问题是计数器变得如此之大,以至于我在 1M 行中遇到了内存错误。我尝试每 100K 行重新初始化一次计数器,并将计数添加到 db 文件中,但这种方法似乎非常慢,可能是由于标签-词对的数量巨大。

...
for query in c.execute('SELECT Tags, Title FROM data'):
i += 1
if i % 100000 == 0:
conn1 = sqlite3.connect('counts.db')
c1 = conn1.cursor()

# update word count
for word in word_count:
c1.execute('SELECT Count FROM word_count WHERE Word=?', (word,))
count = c1.fetchone()
# add to existing count and update
if count:
count = word_count[word] + count[0]
c1.execute('UPDATE word_count SET Count=? WHERE Word=?', (count, word))
# insert new row
else:
c1.execute('INSERT INTO title_word_count VALUES (?,?)', (word, word_count[word]))

# update pair count
for pair in pair_count:
c1.execute('SELECT Count FROM pair_count WHERE Tag=? AND Word=?', pair)
count = c1.fetchone()
if count:
count = pair_count[pair] + count[0]
c1.execute('UPDATE pair_count SET Count=? WHERE Tag=? AND Word=?', (count, pair[0], pair[1]))
else:
c1.execute('INSERT INTO pair_count VALUES (?,?,?)', (pair[0], pair[1], pair_count[pair]))
conn1.commit()
conn1.close()

# reinitiate counters
word_count = Counter()
pair_count = Counter()
...

有什么方法可以在不访问多台机器的情况下解决此问题吗?另外,如果对代码有任何建议,我们将不胜感激!

<小时/>

编辑:

我尝试索引 counts.db 并更新每个批处理,但它仍然太慢 - 处理 7 个批处理(每个批处理 200000 行)需要 10 小时。

我最终遵循了我最初的想法。但我不是每 100K 行更新一次计数,而是将它们插入到表 subcounts 中,尽管可能存在重复的 Tag, Word 对。

然后 INSERT INTOpair_count SELECT Tag, Word, SUM(Count) FROM subcounts GROUP BY Tag, Word; 给出了最终结果。我总共花了大约 3 个小时。

我不小心删除了按照 @abernert 建议得到的临时表,但我认为这是可行的。

感谢@Steve 和@abernert 的建议!

最佳答案

如果您的行按(标签、单词)排序,那么您将获得一对计数的所有更新,然后是下一对计数的所有更新,依此类推。

不幸的是,因为您没有正确规范化数据,所以您无法得到它。

如果您不知道最后一句的含义,则需要阅读数据库规范化。 Third normal form维基百科看起来是一个不错的起点。

如果您无法修复数据模型,我们可以构建一个临时表来修复它:

c.execute('DROP TABLE IF EXISTS _data')
c.execute('CREATE TABLE _data (Tag, Word)')
for query in c.execute('SELECT Tags, Title FROM data'):
tags = query[0].strip().split()
words = wordpunct_tokenize(query[1])
c.executemany('INSERT INTO _data (Tag, Word) VALUES(?, ?)',
itertools.product(tags, words))
c.commit()

实际上,您不需要拆分两列,只需拆分较大的一列即可。但这要干净得多,除非您确实需要节省磁盘空间。

无论如何,现在您可以ORDER BYTag, WordWord, Tag,具体取决于哪个较大,并且您不需要不需要保留一整套 tag_count 值,只需保留您当前正在处理的值即可。您将获取一个值的所有行,然后获取下一个值的所有行,依此类推。

这也意味着使用GROUP BY,您可以让 sqlite3 为您进行计数。

这也意味着您一开始就不需要在 Python 中进行迭代;你也可以让 sqlite3 这样做:

c.execute('''INSERT INTO pair_count 
SELECT Tag, Word, COUNT(*) FROM _data GROUP BY Tag, Word''')

关于Python计算大文件中的单词数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19127316/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com