- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
无论我训练网络多长时间,我的神经网络模型的损失似乎都没有减少。 inputs
是一个由 15 个 (1,14)
数组组成的 numpy 堆栈,因此它的形状为 (15,14)
。
import tensorflow as tf
import tensorflow_probability as tfp
import numpy as np
with tf.name_scope("bnn"):
model = tf.keras.Sequential([
tfp.layers.DenseFlipout(64, activation=tf.nn.relu),
tfp.layers.DenseFlipout(64, activation=tf.nn.relu),
tfp.layers.DenseFlipout(11, activation=tf.nn.softmax)
])
logits = model(inputs)
neg_log_likelihood = tf.nn.softmax_cross_entropy_with_logits_v2(
labels=labels, logits=logits)
#kl = sum(model.losses)
loss = neg_log_likelihood #+ kl
train_op_bnn = tf.train.AdamOptimizer().minimize(loss)
init_op = tf.group(tf.global_variables_initializer(),
tf.local_variables_initializer())
with tf.Session() as sess:
sess.run(init_op)
for i in range(10):
sess.run(train_op_bnn)
print(sess.run(loss))
即使我将训练部分循环 100 次迭代,损失也保持大致相同。我觉得它只是生成随机数。
[ 15.69408512 15.44436646 13.1471653 10.95459461 11.92738056
12.26817703 10.54849815 15.23202133 10.96777344 10.42760086
11.41384125 16.70359612 14.71702576 12.59389114 12.59498119]
[ 15.69178391 15.45760155 13.13955212 10.97087193 11.9185276
12.26686096 10.55150986 15.24072647 10.98205566 10.42508125
11.40711594 16.70509338 14.71866608 12.59212685 12.58044815]
[ 15.70432568 15.43920803 13.14484024 10.96325684 11.90746498
12.27936172 10.54476738 15.23231792 10.98124218 10.4410696
11.41601944 16.70531845 14.71773529 12.58877563 12.58486748]
[ 15.69456196 15.4549036 13.13622952 10.9618206 11.92374229
12.27278805 10.55258274 15.23033237 10.98199749 10.45040035
11.40854454 16.69827271 14.71369648 12.58154106 12.58543587]
[ 15.70057106 15.44137669 13.15152454 10.97329521 11.91176605
12.27191162 10.55643845 15.22959518 10.96763611 10.43885517
11.40656662 16.70225334 14.71477509 12.58106422 12.57350349]
[ 15.70051384 15.44955826 13.12762356 10.97265244 11.92464542
12.26436138 10.54278946 15.2416935 10.95931625 10.44235325
11.39641094 16.70422935 14.71526909 12.58607388 12.5754776 ]
[ 15.70247078 15.44031525 13.13246441 10.96818161 11.90959644
12.27048016 10.55867577 15.23018265 10.96870041 10.4413271
11.40160179 16.70223618 14.71558762 12.58408928 12.56538963]
[ 15.69963455 15.43683147 13.12852192 10.97309399 11.92388725
12.27491188 10.5465889 15.22896194 10.96969795 10.43502808
11.40288258 16.70007324 14.7202301 12.58245087 12.57666397]
[ 15.70012856 15.43531322 13.13196182 10.9636631 11.92444801
12.27731323 10.55225563 15.2232151 10.9690609 10.43749809
11.4017868 16.69387817 14.71770382 12.57458782 12.56506252]
[ 15.70418262 15.43191147 13.13453293 10.95469475 11.91213608
12.2595768 10.55391121 15.23048401 10.95438766 10.43799973
11.40246582 16.69694519 14.72452354 12.58216476 12.553545 ]
最佳答案
问题是这是一个回归任务。
因此损失应该是:
loss = tf.reduce_mean(tf.square(labels-logits))
关于python - Tensorflow神经网络损失没有减少,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53830779/
我是 Bison 解析的新手,我无法理解它是如何工作的。我有以下语法,其中我保留了最低限度的语法来突出问题。 %left '~' %left '+' %token T_VARIABLE %% star
我链接了 2 个映射器和 1 个缩减器。是否可以将中间输出(链中每个映射器的 o/p)写入 HDFS?我尝试为每个设置 OutputPath,但它似乎不起作用。现在,我不确定是否可以完成。有什么建议吗
我正在编写一些代码来管理自定义磁盘文件结构并将其同步到未连接的系统。我的要求之一是能够在实际生成同步内容之前估计同步的大小。作为一个简单的解决方案,我整理了一个包含完整路径文件名的 map ,作为高效
我来自一个 SQL 世界,其中查找由多个对象属性(published = TRUE 或 user_id = X)完成,并且有 任何地方都没有加入 (因为 1:1 缓存层)。文档数据库似乎很适合我的数据
在 R 中,我有一个整数向量。从这个向量中,我想随机减少每个整数元素的值,以获得向量的总和,即初始总和的百分比。 在这个例子中,我想将向量“x”减少到向量“y”,其中每个元素都被随机减少以获得等于初始
我发现自己遇到过几次我有一个 reducer /组合 fn 的情况,如下所示: def combiner(a: String, b: String): Either[String, String]
Ubuntu 12.04 nginx 1.2.4 avconv版本 avconv version 0.8.10-4:0.8.10-0ubuntu0.12.04.1, Copyright (c) 200
我是 R 编程语言的新手。我有一个包含 2 列(ID 和 Num)的数据集,如下所示: ID Num 3 8 3 12 4 15 4 18 4
我正在使用高阶函数将函数应用于向量中的每个元素并将结果作为标量值返回。 假设我有: v = c(0, 1, 2, 3, 4, 5, 6, 7, 8) 我想计算以左边 5 个整数为中心的所有这些整数的总
关闭。这个问题需要debugging details .它目前不接受答案。 编辑问题以包含 desired behavior, a specific problem or error, and th
这个问题在这里已经有了答案: How to write the dataframes in a list to a single csv file (2 个回答) 5年前关闭。 我正在尝试使用 Red
刚开始学习CUDA编程,对归约有些迷茫。 我知道与共享内存相比,全局内存有很多访问延迟,但我可以使用全局内存来(至少)模拟类似于共享内存的行为吗? 例如,我想对长度恰好为 BLOCK_SIZE * T
我经常使用OptiPNG或pngcrush减小PNG图像的文件大小。 我希望能够从.NET应用程序中以编程方式执行此类操作。我正在动态生成要发送到移动设备的PNG,因此我想减小文件大小。 图像质量很重
减少和减少让您在序列上累积状态。 序列中的每个元素都会修改累积的状态,直到 到达序列的末尾。 在无限列表上调用reduce 或reductions 有什么含义? (def c (cycle [0]))
这与R: use the newly generated data in the previous row有关 我意识到我面临的实际问题比我在上面的线程中给出的示例要复杂一些 - 似乎我必须将 3 个
有什么办法可以减少.ttf字体的大小?即如果我们要删除一些我们不使用的glyps。 最佳答案 使用Google Web Fonts,您可以限制字符集,例如: //fonts.googleapis.co
我需要在iOS中制作一个应用程序,在她的工作过程中发出类似“哔”的声音。 我已经使用MPMusicPlayerController实现了与背景ipod的交互。 问题: 由于来自ipod的音乐音量很大,
我有一个嵌套 map m,如下所示: m = Map("电子邮件"-> "a@b.com", "背景"-> Map("语言"-> "英语")) 我有一个数组arr = Array("backgroun
有什么原因为什么不应该转发map / reduce函数中收到的可写内容? 我的意思是-每个map / reduce函数都有一个可写的键/值,并可能发出一个键/值对。如果我想执行一些过滤,我应该只发出接
假设我有一个数据列表 val data = listOf("F 1", "D 2", "U 1", "D 3", "F 10") 我想执行每个元素的给定逻辑。 我必须在外部添加 var acc2 =
我是一名优秀的程序员,十分优秀!