可以使用以下代码在R中执行logit回归:
> library(MASS)
> data(menarche)
> glm.out = glm(cbind(Menarche, Total-Menarche) ~ Age,
+ family=binomial(logit), data=menarche)
> coefficients(glm.out)
(Intercept) Age
-21.226395 1.631968
看来优化算法已经收敛-存在有关费舍尔评分算法的步数的信息:
Call:
glm(formula = cbind(Menarche, Total - Menarche) ~ Age, family = binomial(logit),
data = menarche)
Deviance Residuals:
Min 1Q Median 3Q Max
-2.0363 -0.9953 -0.4900 0.7780 1.3675
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -21.22639 0.77068 -27.54 <2e-16 ***
Age 1.63197 0.05895 27.68 <2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 3693.884 on 24 degrees of freedom
Residual deviance: 26.703 on 23 degrees of freedom
AIC: 114.76
Number of Fisher Scoring iterations: 4
我很好奇它是什么优化算法?是Newton-Raphson算法(二阶梯度下降)吗?我可以设置一些参数来使用柯西算法(一阶梯度下降)吗?
5
您是否介意将Newton-Raphson算法称为“梯度下降II级”?
—
Cliff AB
FIsher评分本身与Newton-Raphson有关,但与Newton-Raphson不同,实际上是用模型下的预期值代替了Hessian。
—
Glen_b-恢复莫妮卡
@CliffAB很抱歉。注意,这
—
MarcinKosiński2015年
Newton's method
是二阶梯度下降法。
@ hxd1011,您不应编辑更改其他人的问题。当您认为自己知道他们的意思,但是不清楚他们的问题(例如,英语不是他们的母语)时,编辑是一回事,但是您不应让他们的问题与他们的问题有所不同(例如,更笼统)通缉。相反,请问您想要的新问题。我正在回滚编辑。
—
gung-恢复莫妮卡
@MarcinKosińskiNewton的方法是 Newton-Raphson,Raphson仅以牛顿的思想为基础建立了更一般的情况。
—
AdamO'7