gpt4 book ai didi

numpy - 向量化梯度下降 Numpy

转载 作者:行者123 更新时间:2023-12-05 01:30:11 29 4
gpt4 key购买 nike

我已经在 Numpy 中实现了这个梯度下降:

def gradientDescent(X, y, theta, alpha, iterations):
m = len(y)

for i in range(iterations):
h = np.dot(X,theta)
loss = h-y
theta = theta - (alpha/m)*np.dot(X.T, loss) #update theta

return theta

虽然代码的其他部分在这里已完全矢量化,但仍然有一个 for 循环,在我看来无法消除;特别要求在每一步更新 theta 我不知道如何对其进行矢量化或以更有效的方式编写它。

谢谢你的帮助

最佳答案

您不能向量化 for 循环,因为每次迭代都在更新状态。向量化主要用于每次迭代计算独立(某种意义上)结果的计算。

关于numpy - 向量化梯度下降 Numpy,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26218801/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com