- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我可能有一个“臃肿的图表”,请参阅( Why does tf.assign() slow the execution time? ),因为每个纪元都花费越来越多的时间,但我在代码中看不到它。你能帮助我吗,我还是一个 Tensorflow 新手。
# NEURAL NETWORK
def MLP(x, weights, biases, is_training):
# Hiden layer 1
hLayer1 = tf.add(tf.matmul(x, weights["w1"]), biases["b1"])
hLayer1 = tf.nn.sigmoid(hLayer1)
bn1 = batch_norm_wrapper(hLayer1, gamma=weights["gamma1"], beta=weights["beta1"], is_training=is_training, name="1")
hLayer1 = bn1
# Hiden layer 2
hLayer2 = tf.add(tf.matmul(hLayer1, weights["w2"]), biases["b2"])
hLayer2 = tf.nn.sigmoid(hLayer2)
bn2 = batch_norm_wrapper(hLayer2, gamma=weights["gamma2"], beta=weights["beta2"], is_training=is_training, name="2")
hLayer2 = bn2
# Output layer
outLayer = tf.add(tf.matmul(hLayer2, weights["wOut"]), biases["bOut"], name="outLayer")
return outLayer
# Weights and biases
weights = {
"w1": tf.get_variable(shape=[n_input, n_hLayer1], initializer=tf.keras.initializers.he_normal(seed=5), name="w1", trainable=True),
"w2": tf.get_variable(shape=[n_hLayer1, n_hLayer2], initializer=tf.keras.initializers.he_normal(seed=5), name="w2", trainable=True),
"wOut": tf.get_variable(shape=[n_hLayer2, n_classes], initializer=tf.keras.initializers.he_normal(seed=5), name="wOut", trainable=True),
"gamma1": tf.get_variable(shape=[n_hLayer1], initializer=tf.ones_initializer(), name="gamma1", trainable=True),
"beta1": tf.get_variable(shape=[n_hLayer1], initializer=tf.zeros_initializer(), name="beta1", trainable=True),
"gamma2":tf.get_variable(shape=[n_hLayer2], initializer=tf.ones_initializer(), name="gamma2", trainable=True),
"beta2": tf.get_variable(shape=[n_hLayer2], initializer=tf.zeros_initializer(), name="beta2", trainable=True)
}
biases = {
"b1": tf.get_variable(shape=[n_hLayer1], initializer=tf.zeros_initializer(), name="b1", trainable=True),
"b2": tf.get_variable(shape=[n_hLayer2], initializer=tf.zeros_initializer(), name="b2", trainable=True),
"bOut": tf.get_variable(shape=[n_classes], initializer=tf.zeros_initializer(), name="bOut", trainable=True)
}
def batch_norm_wrapper(inputs, gamma, beta, is_training, name, decay=0.999):
pop_mean = tf.Variable(tf.zeros([inputs.get_shape()[-1]]), name="pop_mean{}".format(name), trainable=False)
pop_var = tf.Variable(tf.zeros([inputs.get_shape()[-1]]), name="pop_var{}".format(name), trainable=False)
if is_training:
batch_mean, batch_var = tf.nn.moments(inputs, [0])
train_mean = tf.assign(pop_mean, pop_mean*decay + batch_mean*(1-decay))
train_var = tf.assign(pop_var, pop_var*decay + batch_var*(1-decay))
with tf.control_dependencies([train_mean, train_var]):
return tf.nn.batch_normalization(x=inputs, mean=batch_mean, variance=batch_var, scale=gamma, offset=beta, variance_epsilon=0.001)
else:
return tf.nn.batch_normalization(x=inputs, mean=pop_mean, variance=pop_var, scale=gamma, offset=beta, variance_epsilon=0.001)
# Model
predictions = MLP(next_element[0], weights, biases, is_training=True)
# Loss function and regularization
loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=predictions, labels=next_element[1]))
l1_regularizer = tf.reduce_sum(tf.abs(weights["w1"])) + tf.reduce_sum(tf.abs(weights["w2"])) + tf.reduce_sum(tf.abs(weights["wOut"]))
l2_regularizer = tf.reduce_mean(tf.nn.l2_loss(weights["w1"]) + tf.nn.l2_loss(weights["w2"]) + tf.nn.l2_loss(weights["wOut"]))
loss = loss + r*alpha1*l1_regularizer + (1-r)*alpha2*l2_regularizer
# Optimizer
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(loss)
# LAUNCH THE GRAPH
with tf.Session() as sess:
sess.run(init_op)
# Training
for trainEpoch in range(training_epochs):
sess.run(training_iterator_op)
while True:
try:
value = sess.run(next_element)
sess.run([loss, optimizer])
except tf.errors.OutOfRangeError:
break
我使用数据集 API 来运行我的训练数据。
最佳答案
我想分享我在 TensorFlow 2.x.x(在我的例子中为 2.4.1)中与您的问题相关的训练问题的发现。 Here这是我在互联网上进行了数小时的研究后发现的。
关于tensorflow - Epoch 需要越来越多的时间,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52112508/
这个问题已经有答案了: Find closest date in array with JavaScript (6 个回答) 已关闭 4 年前。 我有一个基本纪元时间值和一个纪元时间数组以及相应纪元时
这个单线用于保存keras深度学习神经网络模型。 model.save('my_model.h5') model.save()保存的是最后一个epoch的模型还是最好的epoch的模型?有时,最后一个
我在 keras 中有以下神经网络(可能没有必要对其进行审查来回答我的问题: 简短摘要:它是一个以图像作为输入并输出图像的神经网络。神经网络主要是卷积网络。我使用发电机。另外,我有两个回调:一个用于
我使用卷积神经网络 (CNN) 来训练数据集。这里我得到 epoch、val_loss、val_acc、总损失、训练时间等作为历史记录。如果我想计算准确率的平均值,那么如何访问 val_acc,以及如
我可能有一个“臃肿的图表”,请参阅( Why does tf.assign() slow the execution time? ),因为每个纪元都花费越来越多的时间,但我在代码中看不到它。你能帮助我
我正在尝试从网站 http://epochjs.github.io/epoch/real-time 运行一个基本示例我收到以下错误 jQuery.Deferred exception: $(...).
我正在尝试使用 SimpleDateFormat 进行简单的纪元到日期的转换。每当我运行该程序时,我都会在转换后收到无效日期。我已经在转换器中运行了纪元戳 [并且我还在外部服务器中存储了日期],所以我
我知道我不久前发布了这个,但我想出了解决方案。我为名为 Roblox 的游戏编写了此代码,但我只是在此处发布代码,以防其他遇到相同问题的人需要解决方案。无论如何,这是代码: outputTime =
为了在 JSON 中传递时间到/从 Web API,为什么我会选择使用 ISO8601 字符串而不是简单的 UTC 纪元值?例如,这两者是相同的: Epoch = 1511324473 iso8601
每次验证循环结束时,我都想保存一个检查点。我设置了val_check_interval成为 0.2所以我在每个时期有 5 个验证循环,但检查点回调仅在时期结束时保存模型。我找不到在每个验证循环后保存模
在 manual在 Tensorflow 中的 Dataset 类上,它展示了如何对数据进行混洗以及如何对其进行批处理。然而,如何对每个时期的数据进行洗牌并不明显。我已经尝试了下面的方法,但是数据在第
我正在尝试基于本文实现一个判别性损失函数,例如图像分割:https://arxiv.org/pdf/1708.02551.pdf (此链接仅供读者引用;我不希望有人阅读它来帮助我!) 我的问题:一旦我
我有一个基于 JSON 的源,我想使用 ADF 映射数据流进行转换。我有一个包含纪元时间戳值的字符串,我想将其转换为日期时间值,以便稍后将其放入 Parquet 文件中。 你知道方法吗?这种语言的文档
我有一个基于 JSON 的源,我想使用 ADF 映射数据流进行转换。我有一个包含纪元时间戳值的字符串,我想将其转换为日期时间值,以便稍后将其放入 Parquet 文件中。 你知道方法吗?这种语言的文档
我有一个以下格式的字符串:“2019-08-17T09:51:41.775+00:00”。我需要将其转换为纪元微秒,但我的转换总是相差一个小时。 这是我目前的代码: String timestamp
在 Python 中的 Tensorflow 2.0 中训练神经网络时,我注意到训练精度和损失在不同时期之间发生了巨大变化。我知道打印的指标是整个 epoch 的平均值,但在每个 epoch 之后准确
假设我有一个定义的神经网络的训练样本(带有相应的训练标签)(神经网络的架构对于回答这个问题无关紧要)。让我们称神经网络为“模型”。 为了不产生任何误解,假设我介绍了“模型”的初始权重和偏差。 实验 1
我正在尝试将以下列转换为纪元,为机器学习做准备,我的 csv 的其余部分包含字符串,所以我假设这是最好的方法,我尝试创建一个 numpy 数组并使用 datetime 对其进行转换,等等但这不起作用我
我正在编写一个 Node API 并得到一个模型,我必须为其生成一个15 位随机数。这必须是唯一的,并且不应看起来微不足道(我无法获得自动增量)。 我真的不想生成数字并查询 Mongo 数据库以进行存
features = [tf.contrib.layers.real_valued_column("x", dimension=1)] estimator = tf.contrib.learn.Lin
我是一名优秀的程序员,十分优秀!