gpt4 book ai didi

tensorflow - 稍微不同的形状会收敛到错误的数字 - 为什么?

转载 作者:行者123 更新时间:2023-12-02 07:52:22 26 4
gpt4 key购买 nike

我试图弄清楚为什么 TensorFlow 正在做一些令人惊讶的事情。我将其归结为一个测试用例,尝试对一个简单的问题进行线性回归,该问题只需将两个输入加在一起。权重收敛到 1.0,偏差收敛到 0.0,正如它们应该的那样。

使用此版本的训练输出:

train_y = [2., 3., 4.]

成本收敛到 0.0,这是应该的,但在这个版本中:

train_y = [[2.], [3.], [4.]]

成本收敛到4.0。如果第二个版本给出错误消息,我不会感到惊讶;令人惊讶的是,它默默地给出了错误的答案。为什么要这样做?

测试用例的完整代码:

import tensorflow as tf
sess = tf.InteractiveSession()
tf.set_random_seed(1)

# Parameters
epochs = 10000
learning_rate = 0.01

# Data
train_x = [[1., 1.], [1., 2.], [2., 2.]]

# It works with this version
train_y = [2., 3., 4.]

# But converges on cost 4.0 with this version
#train_y = [[2.], [3.], [4.]]

# Number of samples
n_samples = len(train_x)

# Inputs and outputs
x = tf.placeholder(tf.float32, name='x')
y = tf.placeholder(tf.float32, name='y')

# Weights
w = tf.Variable(tf.random_normal([2]), name='weight')
b = tf.Variable(tf.random_normal([]), name='bias')

# Model
pred = tf.tensordot(x, w, 1) + b
cost = tf.reduce_sum((pred-y)**2 / n_samples)
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)

# Train
tf.global_variables_initializer().run()
for epoch in range(epochs):
# Print update at successive doublings of time
if epoch&(epoch-1)==0 or epoch==epochs-1:
print('{:6}'.format(epoch), end=' ')
print('{:12.6f}'.format(cost.eval({x: train_x, y: train_y})), end=' ')
print(' ['+', '.join('{:8.6f}'.format(z) for z in w.eval())+']', end=' ')
print('{:12.6f}'.format(b.eval()))
for (x1, y1) in zip(train_x, train_y):
optimizer.run({x: x1, y: y1})

最佳答案

为什么?

问题是当您输入不同形状的张量时的成本函数计算。更具体地说,它是 pred - y 计算。

为了向您展示这个特定示例中出了什么问题,同时避免困惑,我将使用具有与上面提到的相同形状和值的常量:

y0 = tf.constant([2., 3., 4.])
y1 = tf.constant([[2.], [3.], [4.]])
pred = tf.constant([2., 3., 4.])

现在,让我们看看表达式 pred - y0pred - y1 的形状:

res0 = pred - y0
res1 = pred - y1

print(res0.shape)
print(res1.shape)

输出为:

(3,)
(3, 3)

(3, 3) 显示在计算形状 (3,)(3 的 pred - y1 时, 1),我们进行了广播来塑造 (3, 3)这也意味着 tf.reduce_sum() 调用对 3x3 = 9 个元素求和,而不仅仅是 3 个。

您可以通过使用 tf.transpose()y1 转置为 (1, 3) 来解决此问题:

res1_fixed = pred - tf.transpose(y1)
print(res1_fixed.shape)

现在的输出是:

(1, 3)

如何修复:

现在,回到您的代码...只需更改以下表达式:

cost = tf.reduce_sum((pred-y)**2 / n_samples)

致:

cost = tf.reduce_sum((pred-tf.transpose(y))**2 / n_samples)

在这两种情况下,您都会按照预期收敛到零。

关于tensorflow - 稍微不同的形状会收敛到错误的数字 - 为什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47417671/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com