- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在尝试使用 gensim 训练 Doc2Vec 模型,其中包含 114M 唯一文档/标签和大约 3M 唯一单词的词汇大小。我在 Azure 上有 115GB Ram linux 机器。当我运行 build_vocab 时,迭代器会解析所有文件,然后抛出内存错误,如下所示。
Traceback (most recent call last):
File "doc_2_vec.py", line 63, in <module>
model.build_vocab(sentences.to_array())
File "/home/meghana/.local/lib/python2.7/site-packages/gensim/models/word2vec.py", line 579, in build_vocab
self.finalize_vocab(update=update) # build tables & arrays
File "/home/meghana/.local/lib/python2.7/site-packages/gensim/models/word2vec.py", line 752, in finalize_vocab
self.reset_weights()
File "/home/meghana/.local/lib/python2.7/site-packages/gensim/models/doc2vec.py", line 662, in reset_weights
self.docvecs.reset_weights(self)
File "/home/meghana/.local/lib/python2.7/site-packages/gensim/models/doc2vec.py", line 390, in reset_weights
self.doctag_syn0 = empty((length, model.vector_size), dtype=REAL)
MemoryError
我的代码-
import parquet
import json
import collections
import multiprocessing
# gensim modules
from gensim import utils
from gensim.models.doc2vec import LabeledSentence
from gensim.models import Doc2Vec
class LabeledLineSentence(object):
def __init__(self, sources):
self.sources = sources
flipped = {}
def __iter__(self):
for src in self.sources:
with open(src) as fo:
for row in parquet.DictReader(fo, columns=['Id','tokens']):
yield LabeledSentence(utils.to_unicode(row['tokens']).split('\x01'), [row['Id']])
## list of files to be open ##
sources = glob.glob("/data/meghana_home/data/*")
sentences = LabeledLineSentence(sources)
#pre = Doc2Vec(min_count=0)
#pre.scan_vocab(sentences)
"""
for num in range(0, 20):
print('min_count: {}, size of vocab: '.format(num), pre.scale_vocab(min_count=num, dry_run=True)['memory']['vocab']/700)
print("done")
"""
NUM_WORKERS = multiprocessing.cpu_count()
NUM_VECTORS = 300
model = Doc2Vec(alpha=0.025, min_alpha=0.0001,min_count=15, window=3, size=NUM_VECTORS, sample=1e-4, negative=10, workers=NUM_WORKERS)
model.build_vocab(sentences)
print("built vocab.......")
model.train(sentences,total_examples=model.corpus_count, epochs=10)
顶部的内存使用情况是-
有人可以告诉我预期内存是多少吗?什么是更好的选择 - 添加交换空间并减慢进程或添加更多内存,以便集群的成本最终可能相等。gensim 在内存中存储哪些向量?我缺少内存有效使用的任何标志。
最佳答案
1.14 亿个文档标签至少需要 114,000,000 doctags * 300 dimensions * 4 bytes/float = 136GB
只是为了在训练期间存储原始文档标签向量。
(如果 doctag 键 row['Id']
是字符串,则记住字符串到整数索引映射字典会产生额外的开销。如果 doctag 键是从 0 到 114 百万的原始整数,这将避免填充如果 doctag 键是原始整数,但包含任何大于 1.14 亿的整数,则模型将尝试分配一个足够大的数组以包含最大整数的行 - 即使许多其他较低的整数未使用。)
原始词向量和模型输出层 ( model.syn1
) 将需要大约 8GB,词汇词典还需要几 GB。
因此,您理想情况下需要更多的可寻址内存,或更小的文档标签集。
你提到了一个“集群”,但是 gensim Doc2Vec
不支持多机分发。
对于这些算法来说,使用交换空间通常是一个坏主意,因为它可能涉及大量的随机访问,因此在交换过程中变得非常慢。但对于 Doc2Vec 的情况,您可以使用 Doc2Vec.__init__()
将其 doctags 数组设置为由内存映射文件提供服务。可选参数docvecs_mapfile
。如果每个文档都有一个标签,并且这些标签在每次重复扫描训练文本时都以相同的升序出现,那么性能可能是可以接受的。
分别:
您对培训迭代和 alpha
的管理学习率有问题。您将在 alpha
处对数据进行 2 次传递。值 0.025 和 0.023,即使每个 train()
调用正在尝试默认的 5 次传递,但随后仅从不可重新启动的 sentences.to_array()
中获取单次迭代目的。
您应该争取更多的通过,模型管理 alpha
从最初的高点到默认的最终极点 min_alpha
值,用更少的代码行。您只需调用 train()
除非您绝对确定需要在多次调用之间执行额外的步骤。 (这里没有显示任何要求。)
让你的sentences
object 一个真正的可迭代对象,可以通过更改 to_array()
来迭代多次。至__iter__()
,然后传递 sentences
单独(而不是 sentences.to_array()
)到模型。
然后调用train()
一次使用这个可多次迭代的对象,并让它以平滑 alpha
进行指定次数的迭代从高到低更新。 (从 Word2Vec
继承的默认值是 5 次迭代,但在已发布的 Doc2Vec
工作中更常用 10 到 20 次。默认值 min_alpha
0.0001 几乎不应该更改。)
关于python - Gensim Doc2vec Finalize_vocab 内存错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45943832/
假设我有一个组织 ID 向量 let orgs = vec![1, 3, 14, 12]; 然后我调用 .iter()在 each 上获取每个组织的事件,其中函数 get_events_for()返回
这个问题已经有答案了: What are Rust's exact auto-dereferencing rules? (4 个回答) 已关闭 3 年前。 我很困惑为什么这个函数 get适用于 Vec
let a = vec![ vec![1, 2], vec![3, 4], vec![5, 6] ]; 怎么才能聚成一个Vec包含在所有 Vec 中的所有值s 在 a ? 最佳答案 您可以使用 fla
我在HashMap, Vec>中有数据,我想将该数据作为字节缓冲区(单个Vec)写入文件,然后从文件中读取回去并重建HashMap结构。 是否有建立像这样的平坦化和恢复 map 的算法?我可以将元数据
我正在寻找一种“使用rust ”的方式来将 Vec 累积到 Vec 中,以便将每个内部 Vec 的第一个元素加在一起,将每个 Vec 的每个第二个元素加在一起,等等......,并将结果收集到 Vec
我正在寻找一种“使用rust ”的方式来将 Vec 累积到 Vec 中,以便将每个内部 Vec 的第一个元素加在一起,将每个 Vec 的每个第二个元素加在一起,等等......,并将结果收集到 Vec
我正在尝试使用 selection_sort 创建一个已排序的向量,同时保留原始未排序的向量: fn main() { let vector_1: Vec = vec![15, 23, 4,
在 https://doc.rust-lang.org/std/vec/struct.Vec.html#method.iter , 我只能在页面左侧的索引侧边栏中找到iter。但是,找不到 iter_
我正在尝试从 Vec> 创建一个集合向量 ( Vec> ) .这是我目前的进展: use std::collections::BTreeSet; fn main() { // The data
我错过了向量向量初始化的一些东西。在第一种方法中,我尝试了这段代码: let mut landFirst: Vec> = Vec::with_capacity(width); for v in lan
我想设计一个类似于示例 here 的函数除了我的情况,iproduct 的参数数量在编译时是未知的。正如 here 所解释的那样,这在 python 中很容易完成。 . 我已经尝试使用 itertoo
我有一个我不明白的问题: fn cipher_with(key: &[u8], data: &[u8]) -> Vec { let data_len = 16; let mut dat
我刚开始学习 Rust,我偶然发现了这个愚蠢的问题: error: mismatched types: expected `&[u8]` but found `&collections::vec::V
这个问题在这里已经有了答案: How to filter a vector of custom structs? (1 个回答) 关闭 4 年前。 我有一个接受 &Vec 的函数(其中 Word 是
试图创建一个 HashMap 的数据库结构向量。每个Vec包含 Box . use std::collections::HashMap; trait Model { fn id(&self)
我正在编写一个使用 Vec> 的库类型以按列优先顺序存储数据(每个内部 Vec 代表一列)。用户可以创建 Vec>具有任何行和列长度,但所有列都被限制为相同的长度。 有时我需要高效地遍历 Vec>按行
在 GLSL 中我不明白什么是“in”和“out”变量,这是什么意思?这是我从教程中复制的代码示例。 // Shader sources const GLchar* vertexSource =
例如 [[5,6][2,3][2,5][2,9][1,6]]先按第一个元素升序排序,当一个元素相等时,按第二个元素降序排序,得到[1,6],[2,9],[2,5],[2,3] ],[5,6] 最佳答案
我正在尝试为类型为Vec>的向量创建可变的迭代器 迭代器代码: pub struct IterMut { iter: &'a mut Vec>, ix: usize, inne
我是 rust 编程的新手。我想用递归实现合并排序。这是我的代码: fn merge(a: &mut Vec, b: &mut Vec) -> Vec { let mut temp: Vec
我是一名优秀的程序员,十分优秀!