gpt4 book ai didi

python - KerasRegressor 决定系数 R^2 分数

转载 作者:行者123 更新时间:2023-12-02 11:31:22 24 4
gpt4 key购买 nike

我正在 Keras 中构建一个用于回归任务的小型神经网络,我想使用与 scikit-learn RandomForestRegressor 相同的精度指标:

The coefficient R^2 is defined as (1 - u/v), where u is the regression sum of squares ((y_true - y_pred) ** 2).sum() and v is the residual sum of squares ((y_true - y_true.mean()) ** 2).sum().

这是一个方便的指标,因为它显示的值高达 1.0(类似于分类中的准确率百分比)。我对 Keras 后端的使用是否符合我想要的准确性指标?

def create_model():
model = Sequential()
model.add(Dense(10, input_dim=X.shape[1], activation="relu"))
model.add(Dense(10, activation="relu"))
model.add(Dense(1))

# Compile model
model.compile(loss="mean_squared_error", optimizer="adam", metrics=[det_coeff])
return model

# Is this computing the right thing?
def det_coeff(y_true, y_pred):
u = K.sum(K.square(y_true - y_pred))
v = K.sum(K.square(y_true - K.mean(y_true)))
return K.ones_like(v) - (u / v)

这似乎有效,没有任何错误,并且指标随着时间的推移逐渐增加到 1,但我想确保我正确实现了该指标。

最佳答案

您可以查看this post出去。我测试了以下代码,它可以满足您的目的。

from keras import backend as K

def coeff_determination(y_true, y_pred):
SS_res = K.sum(K.square( y_true-y_pred ))
SS_tot = K.sum(K.square( y_true - K.mean(y_true) ) )
return ( 1 - SS_res/(SS_tot + K.epsilon()) )

关于python - KerasRegressor 决定系数 R^2 分数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45250100/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com