- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在研究纹理分类,根据之前的工作,我尝试将 AlexNET 的最后一层修改为具有 20 个类,并仅针对我的多类分类问题训练该层。我在 NVIDIA GTX 1080 上使用 Tensorflow-GPU,在 Ubuntu 16.04 上使用 Python3.6。我正在使用梯度下降优化器和类估计器来构建它。我还使用两个 dropout 层进行正则化。因此,我的超参数是学习率、batch_size和weight_decay。我尝试使用batch_size为50,100,200,weight_decays为0.005和0.0005,学习率为1e-3,1e-4和1e-5。上述值的所有训练损失曲线都遵循相似的趋势。
我的训练损失曲线并不是单调下降,而是似乎在振荡。我提供了学习率=1e-5、权重衰减=0.0005、batch_size=200 的张量板可视化。
请协助了解出了什么问题以及我如何纠正它。 The Tensorboard Visualization for the case I specified
# Create the Estimator
classifier = tf.estimator.Estimator(model_fn=cnn_model)
# Set up logging for predictions
tensors_to_log = {"probabilities": "softmax_tensor"}
logging_hook = tf.train.LoggingTensorHook(tensors=tensors_to_log, every_n_iter=10)
# Train the model
train_input_fn = tf.estimator.inputs.numpy_input_fn(x={"x": train_data},y=train_labels,batch_size=batch_size,num_epochs=None,shuffle=True)
classifier.train(input_fn=train_input_fn, steps=200000, hooks=[logging_hook])
# Evaluate the model and print results
eval_input_fn = tf.estimator.inputs.numpy_input_fn(
x={"x": eval_data},
y=eval_labels,
num_epochs=1,
shuffle=False)
eval_results = classifier.evaluate(input_fn=eval_input_fn)
print(eval_results)
#Sections of the cnn_model
#Output Config
predictions = { "classes": tf.argmax(input=logits, axis=1),# Generate predictions (for PREDICT and EVAL mode)
"probabilities": tf.nn.softmax(logits, name="softmax_tensor")} # Add `softmax_tensor` to the graph. It is used for PREDICT and by the `logging_hook`.
if mode == tf.estimator.ModeKeys.PREDICT:
return tf.estimator.EstimatorSpec(mode=mode, predictions=predictions)
# Calculate Loss (for both TRAIN and EVAL modes)
onehot_labels = tf.one_hot(indices=tf.cast(labels,tf.int32),depth=20)
loss = tf.losses.softmax_cross_entropy(onehot_labels=onehot_labels, logits=logits)
#Training Config
if mode == tf.estimator.ModeKeys.TRAIN:
optimizer = tf.train.GradientDescentOptimizer(learning_rate=learning_rate)
tf.summary.scalar('training_loss',loss)
summary_hook = tf.train.SummarySaverHook(save_steps=10,output_dir='outputs',summary_op=tf.summary.merge_all())
train_op = optimizer.minimize(loss=loss, global_step=tf.train.get_global_step())
return tf.estimator.EstimatorSpec(mode=mode, loss=loss, train_op=train_op,training_hooks=[summary_hook])
# Evaluation Metric- Accuracy
eval_metric_ops = {"accuracy": tf.metrics.accuracy(labels=labels, predictions=predictions["classes"])}
print(time.time()-t)
tf.summary.scalar('eval_loss',loss)
ac=tf.metrics.accuracy(labels=labels,predictions=predictions["classes"])
tf.summary.scalar('eval_accuracy',ac)
evaluation_hook= tf.train.SummarySaverHook(save_steps=10,output_dir='outputseval',summary_op=tf.summary.merge_all())
return tf.estimator.EstimatorSpec(mode=mode, loss=loss, eval_metric_ops=eval_metric_ops,evaluation_hooks=[evaluation_hook])
最佳答案
您是随机选择小批量的吗?看起来你的小批量之间有很大的差异,这导致不同迭代的损失有很大的差异。我假设图中的 x 轴是迭代而不是纪元,并且每约 160 次迭代提供的训练数据更难预测,这会导致损失曲线周期性下降。您的验证损失表现如何?
可能的解决方案/想法:
关于python - 为什么我的训练损失在使用预先训练的权重训练 AlexNet 最后一层时会出现振荡?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48804113/
AlexNet 一些前置知识 top-1 和top-5错误率 top-1错误率指的是在最后的n哥预测结果中,只有预测概率最大对应的类别是正确答案才算预测正确。 top-5错误率指的是在最后的n个
问题是关于 this method ,它从 AlexNet 的 FC7 层提取特征。 它实际上提取了什么样的特征? 我在两位艺术家创作的绘画图像上使用了这种方法。训练集大约是每个艺术家的 150 张训
所以,过去一周我一直在学习一些机器学习,并且一直在摆弄我自己的回归 CNN,输入 128x128 的彩色图像并输出评级。虽然我的数据集很小,总共 400 左右,但我得到了不错的结果,但有一点过度拟合(
我正在研究纹理分类,根据之前的工作,我尝试将 AlexNET 的最后一层修改为具有 20 个类,并仅针对我的多类分类问题训练该层。我在 NVIDIA GTX 1080 上使用 Tensorflow-G
所以,我正在做我的硕士论文,研究超分辨率算法对 AlexNet 图像标记准确率的影响。我正在使用 Matlab 和 AlexNet 的预训练版本。 问题是,通过使用 [label, scores] =
当我从 git 克隆它时,AlexNet 的基准测试是 Tensorflow 存储库的一部分。基准测试实现了这些层,但在我看来,AlexNet 的实际权重在任何时候都没有加载。 我想玩转 Tensor
使用分布式 tensorflow 运行 Alexnet 不会按每秒图像数量进行扩展。我在这里使用 alexnet 模型 alexnet_benchmark.py对 EC2 G2(NVIDIA GRID
我正在尝试使用 MxNet Framework 来使用/mxnet/example/image-classification/symbols 目录中的 alexnet 代码。我不是人工智能专家。有人可
我一直在使用 TensorFlow,但对 Caffe 还很陌生。我想尝试在 ImageNet 上训练的 AlexNet 的可靠实现,我发现 official Caffe repository 中包含一
我需要从 alexnet 架构中提取 fc7 的特征。但我只有灰度图像。我如何修改 alexnet 以获得相同的效果? 最佳答案 将预期输入张量从 3 个 channel reshape 为 1 个
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 4 年前。
我想严格复制 Alexnet使用 Tensorflow 2 的神经网络: 来自numerous implementations存在于互联网上,我找不到任何模型如论文和上图所述一分为二。据我所知,当时是
如果我想使用预训练的 VGG19 网络,我可以简单地做 from keras.applications.vgg19 import VGG19 VGG19(weights='imagenet') Ale
我正在尝试在 AlexNet 中使用 TensorFlow 提供自己的数据。我在训练时使用 (227 x 227) rgb 图像,BATCH_SIZE 为 50。以下是代码的一部分。我总是在 trai
我正在尝试使用 bvlc_alexnet.npy 中的预训练权重来实现 AlexNet : #load the weight data weights_dic = numpy.load('bvlc_a
这是我的引用: flow from directory example alexnet architecture 我尝试使用 alexnet 架构训练 3 个类别。数据集是灰度图像。我将第一个链接修改
嗨,我使用顺序方法在 keras 中编写了 AlexNet。我想知道是否以及如何加载 imagenet 权重来训练模型? 目前我对每一层使用 randomNormal 内核初始化。但我想使用 imag
Hei,我在运行 Alexnet 特征提取代码时遇到错误。我使用此 github link 创建alexnet.pb 文件。我使用 Tensorboard 进行了检查,图表运行良好。 我想使用此模型从
您好,我尝试在不使用预训练权重的情况下实现 AlexNet。我尝试在 Oxford-102 数据集上训练网络,但在整个过程中我一直获得 0.9% 的准确率,并且更改参数没有帮助,下面的代码有人可以帮助
我已经成功使用 LeNet 模型来使用 Siamese Network 训练我自己的数据集 tutorial 。现在我想使用 AlexNet,因为我相信它比 LeNet 更强大。有人可以提供在暹罗网络
我是一名优秀的程序员,十分优秀!