- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想将大型 numpy ndarray
序列化为 TFRecord
。问题是,这个过程非常缓慢。对于大小为 (1000000, 65) 的数组,它需要将近一分钟的时间。将其序列化为其他二进制格式(HDF5、npy、parquet...)只需不到一秒钟的时间。我很确定有一种更快的方法来序列化它,但我就是想不出来。
import numpy as np
import tensorflow as tf
X = np.random.randn(1000000, 65)
def write_tf_dataset(data: np.ndarray, path: str):
with tf.io.TFRecordWriter(path=path) as writer:
for record in data:
feature = {'X': tf.train.Feature(float_list=tf.train.FloatList(value=record[:42])),
'Y': tf.train.Feature(float_list=tf.train.FloatList(value=record[42:64])),
'Z': tf.train.Feature(float_list=tf.train.FloatList(value=[record[64]]))}
example = tf.train.Example(features=tf.train.Features(feature=feature))
serialized = example.SerializeToString()
writer.write(serialized)
write_tf_dataset(X, 'X.tfrecord')
如何提高 write_tf_dataset
的性能?我的 X
的大小比代码段中的大 200 倍。
我不是第一个提示 TFRecord
性能低下的人。基于this Tensorflow Github issue我做了第二个版本的函数:
import pickle
def write_tf_dataset(data: np.ndarray, path: str):
with tf.io.TFRecordWriter(path=path) as writer:
for record in data:
feature = {
'X': tf.io.serialize_tensor(record[:42]).numpy(),
'Y': tf.io.serialize_tensor(record[42:64]).numpy(),
'Z': tf.io.serialize_tensor(record[64]).numpy(),
}
serialized = pickle.dumps(feature)
writer.write(serialized)
...但如果表现更差。想法?
最佳答案
解决方法是使用 multiprocessing
包。您可以从多个进程写入同一个 TFRecord 文件,或者让每个进程写入不同的文件(我认为推荐使用多个(小)TFRecord 的方法,而不是单个(大)文件,因为它读取速度更快来自多个来源):
import multiprocessing
import os
import numpy as np
import tensorflow as tf
def serialize_example(record):
feature = {
"X": tf.train.Feature(float_list=tf.train.FloatList(value=record[:42])),
"Y": tf.train.Feature(float_list=tf.train.FloatList(value=record[42:64])),
"Z": tf.train.Feature(float_list=tf.train.FloatList(value=[record[64]])),
}
example = tf.train.Example(features=tf.train.Features(feature=feature))
return example.SerializeToString()
def write_tfrecord(tfrecord_path, records):
with tf.io.TFRecordWriter(tfrecord_path) as writer:
for item in records:
serialized = serialize_example(item)
writer.write(serialized)
if __name__ == "__main__":
np.random.seed(1234)
data = np.random.randn(1000000, 65)
# Option 1: write to a single file
tfrecord_path = "/home/appuser/data/data.tfrecord"
p = multiprocessing.Pool(4)
with tf.io.TFRecordWriter(tfrecord_path) as writer:
for example in p.map(serialize_example, data):
writer.write(example)
# Option 2: write to multiple files
procs = []
n_shard = 4
num_per_shard = int(np.ceil(len(data) / n_shard))
for shard_id in range(n_shard):
filename = f"data_{shard_id + 1:04d}_of_{n_shard:04d}.tfrecord"
tfrecord_path = os.path.join("/home/appuser/data", filename)
start_index = shard_id * num_per_shard
end_index = min((shard_id + 1) * num_per_shard, len(data))
args = (tfrecord_path, data[start_index:end_index])
p = multiprocessing.Process(target=write_tfrecord, args=args)
p.start()
procs.append(p)
for proc in procs:
proc.join()
关于python - ndarray 到 TFRecord 的缓慢序列化,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62174662/
有什么方法可以直接将 .tfrecords 文件拆分为多个 .tfrecords 文件,而无需写回每个数据集示例? 最佳答案 在 tensorflow 2.0.0 中,这将起作用: import te
我想从 AutoGraph 生成的图形内部将 tensorflow 示例记录写入 TFRecordWriter。 tensorflow 2.0 的文档说明如下: The simplest way to
我正在使用 tensorflow 对象检测 api 创建用于微调任务的数据集。 我的目录结构是: 火车/ -- 图片/ ---- img1.jpg -- 安/ ---- img1.csv 其中每个图像
保存到 TFRecord 时,我使用: def _int64_feature(value): return tf.train.Feature(int64_list=tf.train.Int64
我的理解是,最好对每个时期的训练样本进行洗牌,以便每个小批量包含整个数据集的一个很好的随机样本。如果我将整个数据集转换为包含 TFRecords 的单个文件,那么在加载整个数据集的情况下如何实现这种改
为什么在 TensorFlow 的初始模型示例中对 TFRecords 文件进行分片? 为了随机性,不能在创建一个 TFRecord 文件之前打乱文件列表吗? 最佳答案 为什么 TFRecords 文
根据您的经验,在各种设备(硬盘、SSD、NVME)和存储位置(本地计算机、具有网络安装的 HPC 集群)上运行效果最好的 .tfrecord 文件的理想大小是多少? 如果我在云中技术更强大的计算机上获
为什么在 TensorFlow 的初始模型示例中对 TFRecords 文件进行分片? 为了随机性,不能在创建一个 TFRecord 文件之前打乱文件列表吗? 最佳答案 为什么 TFRecords 文
我有一个包含大约 4000 万行的 CSV。每行都是一个训练实例。根据 the documentation on consuming TFRecords我正在尝试对数据进行编码并将其保存在 TFRec
我在另一个论坛上被问到这个问题,但我想我会把它发布在这里,以供遇到 TFRecords 问题的任何人使用。 如果 TFRecord 文件中的标签与 labels.pbtxt 文件中的标签不对齐,Ten
我正在处理相当大的时间序列数据集,然后将准备为 SequenceExample 的数据写入 TFRecord 。这会产生一个相当大的文件(超过 100GB),但我想将它存储在块中。我试过了: file
关于 Carvana Image Masking Challenge 给出的数据格式,我们如何将其转换为tfrecord可以输入到 Deeplab V3 中的格式型号,可支持VOC和 Cityscap
我得到了一个 TFRecord 数据文件 filename = train-00000-of-00001,其中包含未知大小的图像,可能还包含其他信息。我知道我可以使用 dataset = tf.dat
TensorFlow 对象检测 API 更喜欢 TFRecord 文件格式。 MXNet 和 Amazon Sagemaker 似乎使用 RecordIO 格式。这两种二进制文件格式有何不同,或者它们
我有 5 个 tfrecords 文件,每个对象一个。在训练时,我想从所有 5 个 tfrecord 中平均读取数据,即如果我的批量大小为 50,我应该从第一个 tfrecord 文件中获取 10 个
我想用 TensorFlow 执行多标签分类。 我有大约 95000 张图像,每张图像都有一个相应的标签向量。每个图像有 7 个标签。这 7 个标签表示为一个大小为 7 的张量。每个图像的形状为 (2
在 TensorFlow 教程示例中,TFRecords 的用法与 MNIST 数据集一起提供。 MNIST 数据集被转换为 TFRecords 文件,如下所示: def convert_to(dat
我想将整数列表(或任何多维 numpy 矩阵)写入一个 TFRecords 示例。对于单个值或多个值的列表,我可以创建 TFRecord 文件而不会出错。我还知道如何从 TFRecord 文件中读取单
尝试编写 w/和 w/o 多线程的 tfrecord,发现速度差异不大(w/4 线程:434 秒;w/o 多线程 590 秒)。不确定我是否正确使用它。有没有更好的方法来更快地编写 tfrecord?
我的目标是在本地运行Tensorflow Training App时使用存储在Google Cloud存储中的培训数据(格式:tfrecords)。 (为什么要在本地?:在将其转换为Cloud ML培
我是一名优秀的程序员,十分优秀!