gpt4 book ai didi

python - 限制 MNIST 训练数据的大小

转载 作者:行者123 更新时间:2023-12-01 07:32:04 28 4
gpt4 key购买 nike

我刚刚开始学习 python 和 TensorFlow,并正在尝试各种神经网络和 MNIST 数据。我想做的一项实验是看看训练集的大小如何影响性能。目前训练集中似乎有 55000 个输入/输出对。我想要某种方法来限制训练仅使用前 1000 个左右,但不知道如何实现这一点。

我当前的训练函数如下所示:

def do_training():
print("Train entry")
for i in range(2000):

batch_of_training_inputs, batch_of_training_labels = mnist.train.next_batch(100)

sess.run(train_step, feed_dict={generic_image_data_struct: batch_of_training_inputs, target_for_output_struct: batch_of_training_labels })

有没有类似的东西

mnist.train.next_batch(100, BUT_ONLY_FROM_FIRST(1000))

仅供引用,我通过以下代码得到了 mnist:

from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets('MNIST_data', one_hot=True)

最佳答案

您可以做的一件简单的事情就是增加验证数据集的大小。 MNIST 包含 60,000 张图像,因此如果您只想训练 1,000 张图像,您可以这样做:

mnist = input_data.read_data_sets(train_dir, one_hot=True, validation_size=59000)

关于python - 限制 MNIST 训练数据的大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57167645/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com