- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我对 gradDescent package 有理解上的问题在 R 中。假设我有一个包含一个自变量的数据集,我想对该数据运行简单的线性回归,并使用批量梯度下降 (GD) 算法估计模型及其参数。
例如,我正在使用 here 中给出的数据集.第一列是自变量 (X),第二列是因变量 (Y)。
我为批量梯度下降算法编写了自己的 R 代码。我使用的学习率为 0.01,迭代次数为 1500。估计模型为 y = -3.630291 + 1.166362 x。参数的初始值均选择为1。
我还想检查我的代码是否正常工作。我使用 R 内置函数 lm 包进行比较。参数非常接近R中线性回归函数给出的结果。所以在这种情况下我们的梯度下降算法得到的线性回归模型是y=-3.896 + 1.193 x。
然而,最近,我发现了一个 R 包 gradDescent,我想看看它是如何工作的。使用相同的学习率和最大迭代次数,我得到了模型 y=-1.229567+0.9257195x 的结果(这些值每次运行时都会改变,因为我设置了 seed=NULL)。
GD <- function(dataTrain, alpha=0.1, maxIter=10, seed=NULL){
#convert data.frame dataSet in matrix
dataTrain <- matrix(unlist(dataTrain), ncol=ncol(dataTrain), byrow=FALSE)
#shuffle data train
set.seed(seed)
dataTrain <- dataTrain[sample(nrow(dataTrain)), ]
set.seed(NULL)
#initialize theta
theta <- getTheta(ncol(dataTrain), seed=seed)
#bind 1 column to dataTrain
dataTrain <- cbind(1, dataTrain)
#parse dataTrain into input and output
inputData <- dataTrain[,1:ncol(dataTrain)-1]
outputData <- dataTrain[,ncol(dataTrain)]
#temporary variables
temporaryTheta <- matrix(ncol=length(theta), nrow=1)
updateRule <- matrix(0, ncol=length(theta), nrow=1)
#constant variables
rowLength <- nrow(dataTrain)
#loop the gradient descent
for(iteration in 1:maxIter){
error <- (inputData %*% t(theta)) - outputData
for(column in 1:length(theta)){
term <- error * inputData[,column]
#calculate gradient
gradient <- sum(term) / rowLength
updateRule[1,column] <- updateRule[1,column] + (alpha*gradient)
temporaryTheta[1,column] = theta[1,column] - updateRule[1,column]
}
#update all theta in the current iteration
theta <- temporaryTheta
}
result <- theta
return(result)
}
这里,getTheta 函数给出为,
getTheta <- function(columnLength, minTheta=0, maxTheta=1, seed=NULL){
#create static random
set.seed(seed)
#random a value
thetaList <- runif(columnLength, min=minTheta, max=maxTheta)
#clear static random
set.seed(seed)
#transform into matrix
result <- matrix(unlist(thetaList), ncol=columnLength, nrow=1, byrow=FALSE)
return(result)
}
包随机选择初始值。此外,它在运行 GD 算法之前对数据进行混洗。我玩了一会儿。我将参数的初始值指定为 1s,并停止对数据进行洗牌。但是,我无法认真理解哪里出了问题(或正确),这是我无法使用自己的 GD 代码和 R 的 lm 函数得到相同结果的原因。请有人关心解释一下?
install.packages("gradDescent")
library(gradDescent)
URL_subs <-"https://raw.githubusercontent.com/ahawker/machine-learning-coursera/master/ex1/ex1data1.txt"
data <- read.table(URL_subs, header=FALSE, sep=",")
########## gradDescent Function ##########
GD(data, alpha = 0.01, maxIter = 1500, seed = NULL)
# [,1] [,2]
#[1,] -1.312882 0.9281769
########## R bulit-in function ##########
model <- lm(data$V2~ ., data = data)
model
#Call:
# lm(formula = data$V2 ~ ., data = data)
#
#Coefficients:
# (Intercept) V1
# -3.896 1.193
注意:我可以提供我写的内容,但基本上,我试图理解为什么这个包比 lm 包提供更多不同的参数估计。
编辑:是因为代码中的那一行吗?
updateRule[1,column] <- updateRule[1,column] + (alpha*gradient)
当第二个循环 (for(column in 1:length(theta))) 结束时,代码不会重置 updateRule 矩阵,而是继续将 (alpha*gradient) 添加到每次迭代中的矩阵。我错了吗?
当我在迭代中找到参数更新后将此 updateRule 矩阵重置为零时,我得到的模型 y = -3.570819 +1.160388 x 非常接近我所拥有的和 lm 包提供的模型。
编辑 2我原来的帖子中提到了那个 gradDescent 包有什么问题。 updateRule 矩阵没有被重置。我只是在循环中添加了一行代码,并没有改变任何其他内容。 getTheta 和 GD 函数与作者发布的包相同。
我举两个例子来纠正一下。我使用的第一个数据集是一个自变量,第二个数据集是两个自变量。对于这两个示例,我都使用随机生成的首字母,这是包中的想法。对于第二个示例,我将数据归一化,因为输入变量存在数量级差异。房屋面积(大小)大约是卧室数量的 1000 倍。
示例 1
URL_subs <-"https://raw.githubusercontent.com/ahawker/machine-learning-coursera/master/ex1/ex1data1.txt"
data <- read.table(URL_subs, header=FALSE, sep=",")
getTheta <- function(columnLength, minTheta=0, maxTheta=1, seed=NULL){
#create static random
set.seed(seed)
#random a value
thetaList <- runif(columnLength, min=minTheta, max=maxTheta)
#clear static random
set.seed(seed)
#transform into matrix
result <- matrix(unlist(thetaList), ncol=columnLength, nrow=1, byrow=FALSE)
return(result)
}
GD <- function(dataTrain, alpha=0.1, maxIter=10, seed=NULL){
#convert data.frame dataSet in matrix
dataTrain <- matrix(unlist(dataTrain), ncol=ncol(dataTrain), byrow=FALSE)
#shuffle data train
set.seed(seed)
dataTrain <- dataTrain[sample(nrow(dataTrain)), ]
set.seed(NULL)
#initialize theta
theta <- getTheta(ncol(dataTrain), seed=seed)
#bind 1 column to dataTrain
dataTrain <- cbind(1, dataTrain)
#parse dataTrain into input and output
inputData <- dataTrain[,1:ncol(dataTrain)-1]
outputData <- dataTrain[,ncol(dataTrain)]
#temporary variables
temporaryTheta <- matrix(ncol=length(theta), nrow=1)
updateRule <- matrix(0, ncol=length(theta), nrow=1)
#constant variables
rowLength <- nrow(dataTrain)
#loop the gradient descent
for(iteration in 1:maxIter){
error <- (inputData %*% t(theta)) - outputData
for(column in 1:length(theta)){
term <- error * inputData[,column]
#calculate gradient
gradient <- sum(term) / rowLength
updateRule[1,column] <- updateRule[1,column] + (alpha*gradient)
temporaryTheta[1,column] = theta[1,column] - updateRule[1,column]
}
updateRule <- matrix(0, ncol=length(theta), nrow=1)
#update all theta in the current iteration
theta <- temporaryTheta
}
result <- theta
return(result)
}
GD(data, alpha = 0.01, maxIter = 1500, seed = NULL)
# [,1] [,2]
#[1,] -3.602297 1.16355
########## R built-in lm function ##########
model <- lm(data$V2~ ., data = data)
model
#Call:
# lm(formula = data$V2 ~ ., data = data)
#
#Coefficients:
# (Intercept) V1
# -3.896 1.193
示例 2
data <- read.csv("https://raw.githubusercontent.com/ethen8181/machine-learning/master/linear_regression/housing.txt",
header = TRUE,
sep = "," )
getTheta <- function(columnLength, minTheta=0, maxTheta=1, seed=NULL){
#create static random
set.seed(seed)
#random a value
thetaList <- runif(columnLength, min=minTheta, max=maxTheta)
#clear static random
set.seed(seed)
#transform into matrix
result <- matrix(unlist(thetaList), ncol=columnLength, nrow=1, byrow=FALSE)
return(result)
}
GD <- function(dataTrain, alpha=0.1, maxIter=10, seed=NULL){
#convert data.frame dataSet in matrix
dataTrain <- matrix(unlist(dataTrain), ncol=ncol(dataTrain), byrow=FALSE)
#shuffle data train
set.seed(seed)
dataTrain <- dataTrain[sample(nrow(dataTrain)), ]
set.seed(NULL)
#initialize theta
theta <- getTheta(ncol(dataTrain), seed=seed)
#bind 1 column to dataTrain
dataTrain <- cbind(1, dataTrain)
#parse dataTrain into input and output
inputData <- dataTrain[,1:ncol(dataTrain)-1]
outputData <- dataTrain[,ncol(dataTrain)]
#temporary variables
temporaryTheta <- matrix(ncol=length(theta), nrow=1)
updateRule <- matrix(0, ncol=length(theta), nrow=1)
#constant variables
rowLength <- nrow(dataTrain)
#loop the gradient descent
for(iteration in 1:maxIter){
error <- (inputData %*% t(theta)) - outputData
for(column in 1:length(theta)){
term <- error * inputData[,column]
#calculate gradient
gradient <- sum(term) / rowLength
updateRule[1,column] <- updateRule[1,column] + (alpha*gradient)
temporaryTheta[1,column] = theta[1,column] - updateRule[1,column]
}
updateRule <- matrix(0, ncol=length(theta), nrow=1)
#update all theta in the current iteration
theta <- temporaryTheta
}
result <- theta
return(result)
}
GD(data, alpha = 0.05, maxIter = 500, seed = NULL)
# [,1] [,2] [,3]
#[1,] 340412.7 110630 -6648.375
########## R built-in lm function ##########
housing <- read.csv("https://raw.githubusercontent.com/ethen8181/machine-learning/master/linear_regression/housing.txt",
header = TRUE,
sep = "," )
normalized <- apply(housing[ , -3 ], 2, scale)
normalized_data <- data.frame(cbind(normalized, price = housing$price))
model <- lm( price ~ ., data = normalized_data)
model
#Call:
# lm(formula = price ~ ., data = normalized_data)
#
#Coefficients:
# (Intercept) area bedrooms
# 340413 110631 -6649
最佳答案
我认为你是对的。我认为 updateRule
这行就像一个动力。即,当前迭代中的变化方向(部分)保留在下一次迭代中。但是你不应该添加新的渐变,而是你的 updateRule
衰减,这样过去任何错误的方向都会随着迭代的进行而被冲走。
下面,我只更改了你的函数的一行。更新 updateRule
时,我将它乘以 0.2。 0 和 1 之间的任何值都可以(但必须严格小于 1)。
另外,我增加了迭代次数。在我的系统中,我得到了:
## [,1] [,2]
## [1,] -3.895781 1.193034
这与 lm
结果非常相似。
GD <- function(dataTrain, alpha=0.1, maxIter=10, seed=NULL){
#convert data.frame dataSet in matrix
dataTrain <- matrix(unlist(dataTrain), ncol=ncol(dataTrain), byrow=FALSE)
#shuffle data train
set.seed(seed)
dataTrain <- dataTrain[sample(nrow(dataTrain)), ]
set.seed(NULL)
#initialize theta
theta <- getTheta(ncol(dataTrain), seed=seed)
#bind 1 column to dataTrain
dataTrain <- cbind(1, dataTrain)
#parse dataTrain into input and output
inputData <- dataTrain[,1:ncol(dataTrain)-1]
outputData <- dataTrain[,ncol(dataTrain)]
#temporary variables
temporaryTheta <- matrix(ncol=length(theta), nrow=1)
updateRule <- matrix(0, ncol=length(theta), nrow=1)
#constant variables
rowLength <- nrow(dataTrain)
#loop the gradient descent
for(iteration in 1:maxIter){
error <- (inputData %*% t(theta)) - outputData
for(column in 1:length(theta)){
term <- error * inputData[,column]
#calculate gradient
gradient <- sum(term) / rowLength
#updateRule[1,column] <- updateRule[1,column] + (alpha*gradient)
updateRule[1,column] <- 0.2*updateRule[1,column] + (alpha*gradient)
temporaryTheta[1,column] = theta[1,column] - updateRule[1,column]
}
#update all theta in the current iteration
theta <- temporaryTheta
}
result <- theta
return(result)
}
getTheta <- function(columnLength, minTheta=0, maxTheta=1, seed=NULL){
#create static random
set.seed(seed)
#random a value
thetaList <- runif(columnLength, min=minTheta, max=maxTheta)
#clear static random
set.seed(seed)
#transform into matrix
result <- matrix(unlist(thetaList), ncol=columnLength, nrow=1, byrow=FALSE)
return(result)
}
#install.packages("gradDescent")
library(gradDescent)
URL_subs <-"https://raw.githubusercontent.com/ahawker/machine-learning-coursera/master/ex1/ex1data1.txt"
data <- read.table(URL_subs, header=FALSE, sep=",")
########## gradDescent Function ##########
GD(data, alpha = 0.01, maxIter = 15000, seed = 1)
########## R bulit-in function ##########
model <- lm(data$V2~ ., data = data)
model
关于r - gradDescent 包和 lm 函数不同,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46228923/
我有 table 像这样 -------------------------------------------- id size title priority
我的应用在不同的 Activity (4 个 Activity )中仅包含横幅广告。所以我的疑问是, 我可以对所有横幅广告使用一个广告单元 ID 吗? 或者 每个 Activity 使用不同的广告单元
我有任意(但统一)数字列表的任意列表。 (它们是 n 空间中 bin 的边界坐标,我想绘制其角,但这并不重要。)我想生成所有可能组合的列表。所以:[[1,2], [3,4],[5,6]] 产生 [[1
我刚刚在学校开始学习 Java,正在尝试自定义控件和图形。我目前正在研究图案锁,一开始一切都很好,但突然间它绘制不正确。我确实更改了一些代码,但是当我看到错误时,我立即将其更改回来(撤消,ftw),但
在获取 Distinct 的 Count 时,我在使用 Group By With Rollup 时遇到了一个小问题。 问题是 Rollup 摘要只是所有分组中 Distinct 值的总数,而不是所有
这不起作用: select count(distinct colA, colB) from mytable 我知道我可以通过双选来简单地解决这个问题。 select count(*) from (
这个问题在这里已经有了答案: JavaScript regex whitespace characters (5 个回答) 2年前关闭。 你能解释一下为什么我会得到 false比较 text ===
这个问题已经有答案了: 奥 git _a (56 个回答) 已关闭 9 年前。 我被要求用 Javascript 编写一个函数 sortByFoo 来正确响应此测试: // Does not cras
所以,我不得不说,SQL 是迄今为止我作为开发人员最薄弱的一面。也许我想要完成的事情很简单。我有这样的东西(这不是真正的模型,但为了使其易于理解而不浪费太多时间解释它,我想出了一个完全模仿我必须使用的
这个问题在这里已经有了答案: How does the "this" keyword work? (22 个回答) 3年前关闭。 简而言之:为什么在使用 Objects 时,直接调用的函数和通过引用传
这个问题在这里已经有了答案: 关闭 12 年前。 Possible Duplicate: what is the difference between (.) dot operator and (-
我真的不明白这里发生了什么但是: 当我这样做时: colorIndex += len - stopPos; for(int m = 0; m < len - stopPos; m++) { c
思考 MySQL 中的 Group By 函数的最佳方式是什么? 我正在编写一个 MySQL 查询,通过 ODBC 连接在 Excel 的数据透视表中提取数据,以便用户可以轻松访问数据。 例如,我有:
我想要的SQL是这样的: SELECT week_no, type, SELECT count(distinct user_id) FROM group WHERE pts > 0 FROM bas
商店表: +--+-------+--------+ |id|name |date | +--+-------+--------+ |1 |x |Ma
对于 chrome 和 ff,当涉及到可怕的 ie 时,这个脚本工作完美。有问题 function getY(oElement) { var curtop = 0; if (oElem
我现在无法提供代码,因为我目前正在脑海中研究这个想法并在互联网上四处乱逛。 我了解了进程间通信和使用共享内存在进程之间共享数据(特别是结构)。 但是,在对保存在不同 .c 文件中的程序使用 fork(
我想在用户集合中使用不同的功能。在 mongo shell 中,我可以像下面这样使用: db.users.distinct("name"); 其中名称是用于区分的集合字段。 同样我想要,在 C
List nastava_izvjestaj = new List(); var data_context = new DataEvidencijaDataContext();
我的 Rails 应用程序中有 Ransack 搜索和 Foundation,本地 css 渲染正常,而生产中的同一个应用程序有一个怪癖: 应用程序中的其他内容完全相同。 我在 Chrome 和 Sa
我是一名优秀的程序员,十分优秀!