所以,我明白归一化对于训练神经网络很重要。
我也明白我必须使用训练集中的参数对验证集和测试集进行标准化(例如,请参阅此讨论:https://stats.stackexchange.com/questions/77350/perform-feature-normalization-before-or-within-model-validation)
我的问题是:如何在 Keras 中执行此操作?
我目前正在做的是:
import numpy as np
from keras.models import Sequential
from keras.layers import Dense
from keras.callbacks import EarlyStopping
def Normalize(data):
mean_data = np.mean(data)
std_data = np.std(data)
norm_data = (data-mean_data)/std_data
return norm_data
input_data, targets = np.loadtxt(fname='data', delimiter=';')
norm_input = Normalize(input_data)
model = Sequential()
model.add(Dense(25, input_dim=20, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
early_stopping = EarlyStopping(monitor='val_acc', patience=50)
model.fit(norm_input, targets, validation_split=0.2, batch_size=15, callbacks=[early_stopping], verbose=1)
但是在这里,我首先将数据 w.r.t. 归一化。整个数据集和then 拆分验证集,根据上述讨论,这是错误的。
保存训练集(training_mean 和 training_std)的均值和标准差没什么大不了的,但是如何分别对验证集应用 training_mean 和 training_std 的归一化?
下面的代码正是你想要的:
import numpy as np
def normalize(x_train, x_test):
mu = np.mean(x_train, axis=0)
std = np.std(x_train, axis=0)
x_train_normalized = (x_train - mu) / std
x_test_normalized = (x_test - mu) / std
return x_train_normalized, x_test_normalized
然后你可以像这样将它与keras一起使用:
from keras.datasets import boston_housing
(x_train, y_train), (x_test, y_test) = boston_housing.load_data()
x_train, x_test = normalize(x_train, x_test)
丰益国际的回答是不正确的。
我是一名优秀的程序员,十分优秀!