- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试使用 TensorFlow(而不是 Keras)重现 Coursera ML 类(class)的 NN 练习。
我发现使用tf.metrics.accuracy
计算准确度给出的结果低于我计算时的准确度。
相关代码是:
accuracy, update_op = tf.metrics.accuracy(labels=y, predictions=tf.argmax(tf.sigmoid(output), axis=1))
...
# in session:
acc = sess.run(accuracy, feed_dict={tf_x: X, tf_y: y})
sess.run(update_op, feed_dict={tf_x: X, tf_y: y})
print(f'step {step} - accuracy: {acc}')
...
# real accuracy
predictions = sess.run(tf.argmax(tf.sigmoid(output), axis=1), feed_dict={tf_x: X})
pred_y = predictions == y
print(f'Training Set Accuracy after training: {np.mean(pred_y) * 100}%')
甚至可以有 30% 的差异(即 acc 为 0.5,实际精度为 0.8)
我做错了什么吗?
请注意,如果我这样做:
equal = tf.equal(tf.cast(tf.argmax(tf.sigmoid(output), 1), tf.int32), y)
acc_op = tf.reduce_mean(tf.cast(equal, tf.float32))
acc = sess.run(acc_op, feed_dict={tf_x: X, tf_y: y})
我得到了相同的结果...那么 tf.metrics.accuracy 是否以其他方式计算?
最佳答案
解决方案:第一次调用 sess.run(update_op, feed_dict)
,然后sess.run(accuracy)
。如果喂入新批处理,并且需要该批处理的准确性,则必须首先重置一些隐藏变量 - 工作流程如下:
accuracy, update_op = tf.metrics.accuracy(tf_labels, tf_predictions, scope="my_metrics")
running_vars = tf.get_collection(tf.GraphKeys.LOCAL_VARIABLES, scope="my_metrics")
running_vars_initializer = tf.variables_initializer(var_list=running_vars)
for i in range(num_batches):
# explicitly initialize/reset 'total' and 'count' to 0
sess.run(running_vars_initializer)
# feed labels and predictions at i-th batch to update_ops
feed_dict={tf_labels: y[i], tf_predictions: tf.argmax(tf.sigmoid(output[i]), axis=1)}
session.run(update_op, feed_dict=feed_dict)
# compute and print accuracy from current 'total' and 'count'
print('Batch {} accuracy: {}'.format(i, session.run(accuracy)))
<小时/>
详细信息:
tf.metrics.accuracy
使用两个运行时变量
total
(正确预测的数量)和
count
(输入的标签数量),在幕后本地初始化。
accuracy
仅更新一次
update_op
被调用 - 步骤:
total
和count
初始化为零sess.run(update_op, feed_dict)
--> total
和count
按 feed_dict
更新sess.run(accuracy)
--> accuracy
使用当前 total
和count
计算指标sess.run(accuracy, feed_dict)
--> accuracy
使用当前 total
和count
计算指标最后两个说的是,feed_dict
实际上没有做任何改变accuracy
; accuracy
运行于 total
和count
,仅通过 update_op
更新。最后,
sess.run(accuracy, ...)
是否没有重置total
和count
到0这很大程度上就是 total
的原因和count
完全使用 - 用于可扩展性;它通过保存运行历史记录来计算太大而无法一次性放入内存的数据指标。
最后,您的占位符逻辑看起来不对 - 您将数据输入 tf_x
和tf_y
,但在 tf.metrics.accuracy(...)
内任何地方都找不到。 - 但这是一个简单的解决方法。
关于python - tf.metrics.accuracy 与实际准确度不匹配,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58007918/
由于我正在为 iPhone 进行开发,所以我刚刚购买了 iPhone 4 来测试我的应用程序,该应用程序需要测量我的位置坐标。我的 iPhone 上没有任何互联网(3GS、GPRS 或其他...),问
我正在尝试构建一个正则表达式,对于“人类导航的浏览器”的User-Agent:计算结果为 true,但对于机器人则为 false。不用说,匹配不会精确,但如果在 90% 的情况下都能正确匹配,那就足够
我将使用 Python 中的 OpenCV 和 pytesseract 的 OCR 从图片中提取文本。我有这样一张图片: 然后我编写了一些代码来从该图片中提取文本,但它没有足够的准确性来正确提取文本。
我正在尝试使用 vars 学习向量自回归模型R 中的包。这个包没有任何方法来衡量返回模型的准确性。 具体来说,我想使用 accuracy 中定义的 MASE来自 forecast 的函数R 中的包,以
我的工作是计划使用UIMA集群运行文档以提取命名实体,而不提取命名实体。据我了解,UIMA打包的NLP组件很少。我已经测试GATE一段时间了,对此相当满意。在普通文本上还可以,但是当我们通过一些代表性
我正在使用 libSVM(带有线性内核)训练和交叉验证(10 倍)数据。 数据由 1800 个 fMRI 强度体素组成,表示为单个数据点。svm-train 的训练集文件中约有 88 个数据点。 训练
我正在运行一个很大的单元测试列表,这些单元测试正在检查各种不同的类获取和设置。我遇到了一些错误,因为我的测试运行太快?!? 举个简单的例子,单元测试从模拟一个带有评论的博客开始; Blog b = n
我正在进行一项实验,其目标是将脑电图时间序列数据分为 3 类。然而,每当我进行训练时,我的损失都是 NaN,准确度是 0.0。 我的数据有 150 步长,有 4 个 channel 。全部归一化在 0
我已经编写了一个检测 IBeacons 的应用程序(swift,IOS)。虽然我可以正确检测到另一部 iPhone 的 RSSI、准确性和接近度,但在检测到我的信标 (Qualcomm) 时,它会被发
我有包含两列的 csv 文件: category, description 文件中有 1030 个类别,只有大约 12,600 行 我需要获得一个文本分类模型,并根据这些数据进行训练。我使用 kera
问题描述 我正在阅读 François Chollet ( publisher webpage , notebooks on github ) 的“Python 中的深度学习”。复制第 6 章中的示例
我对深度学习非常陌生:我正在 Udemy 上学习深度学习类(class)。一旦我执行我的代码,它会说: ValueError:模型未配置为计算准确性。您应该将 metrics=["accuracy"]
我是一名优秀的程序员,十分优秀!