gpt4 book ai didi

machine-learning - 用数字表示梯度下降中的线性回归特征

转载 作者:行者123 更新时间:2023-11-30 09:55:14 26 4
gpt4 key购买 nike

下面的 python 代码非常适合查找梯度下降:

def gradientDescent(x, y, theta, alpha, m, numIterations):
xTrans = x.transpose()
for i in range(0, numIterations):
hypothesis = np.dot(x, theta)
loss = hypothesis - y
cost = np.sum(loss ** 2) / (2 * m)
print("Iteration %d | Cost: %f" % (i, cost))
gradient = np.dot(xTrans, loss) / m
theta = theta - alpha * gradient
return theta

这里,x = m*n(m = 样本数据数,n = 特征总数)特征矩阵。

但是,如果我的特征是“2”部电影的非数字(例如,导演和类型),那么我的特征矩阵可能如下所示:

['Peter Jackson', 'Action'
Sergio Leone', 'Comedy']

在这种情况下,如何将这些特征映射到数值并应用梯度下降?

最佳答案

您可以将特征映射到您选择的数值,然后以通常的方式应用梯度下降。

在 python 中,你可以使用 panda 轻松做到这一点:

import pandas as pd
df = pd.DataFrame(X, ['director', 'genre'])
df.director = df.director.map({'Peter Jackson': 0, 'Sergio Leone': 1})
df.genre = df.genre.map({'Action': 0, 'Comedy': 1})

正如您所看到的,这种方式可能会变得相当复杂,最好编写一段动态执行此操作的代码。

关于machine-learning - 用数字表示梯度下降中的线性回归特征,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33631203/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com