gpt4 book ai didi

tensorflow - Tensorflow 数据集 API 中的内存管理

转载 作者:行者123 更新时间:2023-12-04 08:32:21 28 4
gpt4 key购买 nike

我有一个太大而无法放入内存的训练数据集,因此我的代码一次只能从磁盘读取 1,000 条记录。现在我想使用 Tensorflow 的新 Dataset API .数据集 API 是否允许我指定要保留在内存中的记录数,或者 Tensorflow 是否自动管理内存以便我不必这样做?

最佳答案

是的。官方指南中的示例(使用数据集 API 用于 TensorFlow 输入管道,https://www.tensorflow.org/programmers_guide/datasets)

filenames = ["/var/data/file1.tfrecord", "/var/data/file2.tfrecord"]
dataset = tf.contrib.data.TFRecordDataset(filenames)
dataset = dataset.map(...) ## Parsing data with a user specified function
dataset = dataset.shuffle(buffer_size=10000) ## 10000: size of sample/record pool for random selection
dataset = dataset.batch(32) ## 32: number of samples/records per batch (to be read into memory)
dataset = dataset.repeat() ## None: keep repeating

关于tensorflow - Tensorflow 数据集 API 中的内存管理,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45124719/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com