gpt4 book ai didi

caching - Tensorflow 数据集 API : Cache

转载 作者:行者123 更新时间:2023-12-01 05:58:17 25 4
gpt4 key购买 nike

我正在尝试使用 tf.Dataset.cache 但它似乎没有影响。

我有3个问题请教:

  • 你想在什么时候缓存你的数据集?我假设它将在任何具有随机行为的映射操作之前。是否建议在任何其他映射之前从 TFRecord 文件进行初始解析后缓存数据集?
  • 如何衡量缓存对速度优化的影响?
  • 我会假设我总是想将我的图像缓存到内存中。至少其中的一部分,并让管道更快地馈送网络。我什么时候要缓存到文件?

  • 谢谢!

    最佳答案

  • .cache 函数的目的是通过将样本缓存到内存/磁盘空间来加速数据管道。因此,对于初始纪元之后的所有纪元,您的管道将不再需要读取/解析/处理。因此,话虽如此,通常最好将其放在数据管道的末尾。
  • 你可以为你的第一个纪元和第二个纪元计时,看看是否有速度增加。
  • 当您的图像太大而无法放入内存时。但是磁盘 I/O 也需要时间。您需要确保您的管道处理花费的时间比这更长,才能从中受益。
  • 关于caching - Tensorflow 数据集 API : Cache,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47947833/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com