gpt4 book ai didi

tensorflow - 最小化前馈神经网络的tensorflow.js中的损失

转载 作者:行者123 更新时间:2023-11-30 09:43:25 25 4
gpt4 key购买 nike

我试图最初使用一个小数据集(仅用于 POC)在 tensorflow.js 中创建一个示例前馈神经网络。有 5 个输入节点和 1 个输出节点。数据与住房相关,有多种输入,我们正在预测价格。

x_train:
[ [ 79545.45857, 5.682861322, 7.009188143, 4.09, 23086.8005 ],
[ 79248.64245, 6.002899808, 6.730821019, 3.09, 40173.07217 ],
[ 61287.06718, 5.86588984, 8.51272743, 5.13, 36882.1594 ],
[ 63345.24005, 7.188236095, 5.586728665, 3.26, 34310.24283 ],
[ 59982.19723, 5.040554523, 7.839387785, 4.23, 26354.10947 ],
...
]

y_train
[ [ 1059033.558 ],
[ 1505890.915 ],
[ 1058987.988 ],
[ 1260616.807 ],
[ 630943.4893 ],
...
]

const model = tf.sequential();
const config_hidden = {
inputShape: [5],
activation: 'sigmoid',
units: 6
}

const config_output = {
units: 1,
activation: 'sigmoid'
}

const hidden = tf.layers.dense(config_hidden);
const output = tf.layers.dense(config_output);

model.add(hidden);
model.add(output);

const optimizer = tf.train.sgd(0.5);

const config = {
optimizer: optimizer,
loss: 'meanSquaredError',
metrics: ['accuracy']
}

model.compile(config);

train_data().then(function () {
console.log('Training is Complete');
}

async function train_data() {
const options = {
shuffle: true,
epochs: 10,
batch_size: 100,
validationSplit: 0.1
}

for (let i = 0; i < 10; i++) {
const res = await model.fit(xs, ys, options);
console.log(res.history.loss[0]);
}
}

模型编译良好。但训练模型时的损失是巨大的

Model Successfully Compiled
Epoch 1 / 10
eta=0.0 ====================================================================>
1058ms 235us/step - acc=0.00 loss=1648912629760.00 val_acc=0.00 val_loss=1586459705344.00
Epoch 2 / 10
eta=0.0 ====================================================================>
700ms 156us/step - acc=0.00 loss=1648913285120.00 val_acc=0.00 val_loss=1586459705344.00
Epoch 3 / 10
eta=0.0 ====================================================================>
615ms 137us/step - acc=0.00 loss=1648913022976.00 val_acc=0.00 val_loss=1586459705344.00
Epoch 4 / 10
eta=0.0 ====================================================================>
852ms 189us/step - acc=0.00 loss=1648913285120.00 val_acc=0.00 val_loss=1586459705344.00

我认为这可能是因为训练数据没有标准化。所以我取了数据的平均值并除以它

xs = xs.div(xs.mean(0));

x_train
[[1.1598413, 0.9507535, 1.003062 , 1.0272969, 0.6384002],
[1.1555134, 1.0042965, 0.9632258, 0.7761241, 1.1108726],
[0.8936182, 0.9813745, 1.2182286, 1.2885166, 1.0198718],
...,

损失没有太大变化

Model Successfully Compiled
Epoch 1 / 10
eta=0.0 ====================================================================>
841ms 187us/step - acc=0.00 loss=1648912760832.00 val_acc=0.00 val_loss=1586459705344.00
Epoch 2 / 10
eta=0.0 ====================================================================>
613ms 136us/step - acc=0.00 loss=1648913154048.00 val_acc=0.00 val_loss=1586459705344.00
Epoch 3 / 10
eta=0.0 ====================================================================>
646ms 144us/step - acc=0.00 loss=1648913022976.00 val_acc=0.00 val_loss=1586459705344.00

然后我也标准化了输出,

ys = ys.div(1000000);

Model Successfully Compiled
Epoch 1 / 10
eta=0.0 ====================================================================>
899ms 200us/step - acc=0.00 loss=0.202 val_acc=0.00 val_loss=0.161
Epoch 2 / 10
eta=0.0 ====================================================================>
667ms 148us/step - acc=0.00 loss=0.183 val_acc=0.00 val_loss=0.160
Epoch 3 / 10
eta=0.0 ====================================================================>
609ms 135us/step - acc=0.00 loss=0.182 val_acc=0.00 val_loss=0.159

这使得损失减少到小数点。然而可以看出,即使在训练数据上运行 10000 次迭代也不会显着降低损失。例如

Epoch 8 / 10
eta=0.0 ====================================================================>
502ms 112us/step - acc=0.00 loss=0.181 val_acc=0.00 val_loss=0.158
Epoch 9 / 10
eta=0.0 ====================================================================>
551ms 122us/step - acc=0.00 loss=0.181 val_acc=0.00 val_loss=0.158
Epoch 10 / 10
eta=0.0 ====================================================================>
470ms 104us/step - acc=0.00 loss=0.181 val_acc=0.00 val_loss=0.158
0.18076679110527039

最终损失从 0.202 左右开始,下降到 0.180 左右。这会导致错误的预测。

这是一个非常常见的场景。具有不同范围值的多个输入(例如上面使用的住房数据)。多个输入传递到前馈神经网络。预计只有一个输出(本例中为价格)。

问题:1.上面的代码我做错了什么?2. 我是否以正确的方式标准化数据?3.我是否使用了正确的损失函数/优化器/学习率/激活等?4. 如何知道模型表现是否良好5.在tensorflow.js中还有其他方法可以做到这一点吗?

最佳答案

由于 S 形激活,我假设您没有尝试线性回归。如果您正在尝试线性回归,请删除各处的 sigmoidal 激活。将尝试解决我看到的所有错误:

  1. 从输出中删除 sigmoid 激活。 sigmoid 函数将输入压缩到 0 到 1 之间,因此它不适用于回归。您的最后一层不需要激活。

  2. 你的学习率太高了,所以我怀疑学习算法是否能够收敛。从 0.001 - 0.01 左右的值开始,并根据需要进行调整。

  3. 不,你没有正确标准化。通常,数据被归一化为均值为零和标准差为一。这是针对每个特征列完成的,仅使用该列的平均值和标准差,而不是所有数据。例如,特征列 x 中的 i 的公式如下:(x_i - x.mean())/x.std()。 (我不懂javascript)

  4. 您提供的性能指标“准确性”用于分类,而不是回归,并且毫无意义(如果提供的话)。最小化均方误差或绝对平方误差是量化模型性能的最佳方法。

关于tensorflow - 最小化前馈神经网络的tensorflow.js中的损失,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56016743/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com