- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我不清楚 tf.TFRecordDataset 中的 buffer_size
参数是什么做。假设我们有以下代码:
dataset = dataset.shuffle(buffer_size=10000).repeat().batch(batch_size)
这是否意味着只有前 10k 个样本将被使用并永远重复,或者我将遍历整个数据集?如果不是,它到底是做什么用的?那么这段代码呢?
dataset = dataset.repeat().shuffle(buffer_size=10000).batch(batch_size)
我注意到了 this post ,但它没有说明任何关于 buffer_size
的内容。
最佳答案
这answer可能有助于更好地理解 shuffle
方法的 buffer_size
参数。
简而言之,数据集的缓冲区中总是有超过 buffer_size
个元素,并且每次添加元素时都会打乱这个缓冲区。
因此,缓冲区大小为 1 就像没有洗牌,缓冲区长度为数据集的长度就像传统的洗牌。
要了解改组和重复数据集之间的正确顺序,请查看官方 performance guide .
最佳做法通常是先洗牌再重复,因为这将确保您在每个时期都能看到整个数据集。
关于python - TensorFlow TFRecordDataset shuffle buffer_size 行为,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48817125/
我不清楚 tf.TFRecordDataset 中的 buffer_size 参数是什么做。假设我们有以下代码: dataset = dataset.shuffle(buffer_size=10000
这是“操作系统概念”第 7 版 Galvin,Gagne 第 3 章硬拷贝本身的摘录: 以下变量驻留在生产者和消费者进程共享的内存区域中: #define BUFFER_SIZE 10 typedef
dataset = dataset.batch(50) dataset = dataset.prefetch(buffer_size=1) 是预取 1 个批次还是 1 个元素? 根据 tensorfl
根据 TensorFlow documentation 、tf.contrib.data.Dataset 类的 prefetch 和 map 方法,都有一个名为 buffer_size 的参数. 对于
我是一名优秀的程序员,十分优秀!