gpt4 book ai didi

python - 通过 tf.data.Dataset 将大型 numpy 数组输入 TensorFlow 估计器

转载 作者:行者123 更新时间:2023-12-01 08:17:25 24 4
gpt4 key购买 nike

TensorFlow 的 tf.data.Dataset documentation on consuming numpy arrays指出为了将 numpy 数组与 Dataset API 结合使用,数组必须足够小(总共 <2 GB)才能用作张量,或者可以将它们输入到数据集中通过占位符。

但是,如果将 Dataset 与估算器(占位符不可用)结合使用,则文档不会提供在没有占位符的情况下处理大型数组的解决方案。

是否有其他选项可以将占位符值传递到可用的估计器中,或者是否有提供 tfrecordcsv 格式数据的解决方案?

最佳答案

您可以在创建数据集对象之前使用 np.splitfrom_generator

chunks = list(np.split(array, 1000))

def gen():
for i in chunks:
yield i

dataset = tf.data.Dataset.from_generator(gen, tf.float32)
dataset = dataset.shuffle(shuffle_buffer_size)
...

您可以通过随机播放来控制数据集的大小。它将一次仅加载指定数量。

关于python - 通过 tf.data.Dataset 将大型 numpy 数组输入 TensorFlow 估计器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54897832/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com