您可以简单地对IRLS方法进行直观的解释,以找到GLM的MLE吗?


13

背景:

我正在尝试遵循普林斯顿对GLM的MLE估计的评论

我明白MLE估计的基础:likelihoodscore,观察和期望Fisher informationFisher scoring技术。而且我知道如何用MLE估计来证明简单的线性回归


问题:

我什至不了解这种方法的第一行:(

工作变量定义为以下内容的直觉是什么:zi

zi=η^i+(yiμ^i)dηidμi

为什么用它们代替来估计βyiβ

它们与的关系response/link functionμ之间的关系ημ

如果有人有一个简单的解释,或者可以指导我获得更基本的说明,我将不胜感激。


1
附带说明一下,对我来说,在了解整个“ GLM”框架(我仍然不完全了解)之前,我在稳健(M-)估计的背景下了解了IRLS 。对于这种方法的实用观点,作为最小二乘法的简单概括,我建议我首先遇到的源:Richard Szeliski的Computer Vision(免费E-)书的附录B (实际上,前4页,尽管这些链接指向一些不错的例子)。
GeoMatt22

Answers:


15

几年前,我为我的学生(西班牙语)写了一篇有关此的论文,因此我可以尝试在这里重写这些解释。我将通过一系列增加复杂性的示例来研究IRLS(迭代加权最小二乘)。对于第一个示例,我们需要一个位置比例系列的概念。在某种意义上,令为以零为中心的密度函数。我们可以通过定义f x = f x ; μ σ = 1来构造一个密度族 f0 ,其中σ>0是比例参数,μ是位置参数。在测量误差模型中,通常将误差项建模为正态分布,我们可以代替正态分布使用上面构建的位置比例系列。当f0是标准正态分布时,上述结构给出Nμσ族。

f(x)=f(x;μ,σ)=1σf0(xμσ)
σ>0μf0N(μ,σ)

现在,我们将在一些简单示例上使用IRLS。首先,我们将在模型Y 1Y 2... Y n中找到ML(最大似然)估计量 密度 f y = 1的 iid

Y1,Y2,,Yni.i.d
柯西分布位置的家庭 μ(因此这是一个位置家族)。但是首先是一些符号。μ的加权最小二乘估计值由 μ = n i = 1 w i y i给出
f(y)=1π11+(yμ)2,yR,
μμ 其中,w ^是一些权重。我们将看到的ML估计μ可以以相同的形式来表达,w ^残差的某个函数 ε=Ÿ - μ 似然函数由 Ly;μ=1
μ=i=1nwiyii=1nwi.
wiμwi
ϵi=yiμ^.
和对数似然函数由下式给出 Ý=-ñ日志π- ñ Σ=1个日志1+Ý-μ2 其相对于衍生物μÝ
L(y;μ)=(1π)ni=1n11+(yiμ)2
l(y)=nlog(π)i=1nlog(1+(yiμ)2).
μ 其中 ε=ÿ-μ。写f0ϵ=1
l(y)μ=0μlog(1+(yiμ)2)=2(yiμ)1+(yiμ)2(1)=2ϵi1+ϵi2
ϵi=yiμ˚F ' 0ε=1f0(ϵ)=1π11+ϵ2,我们得到 ˚F ' 0εf0(ϵ)=1π12ϵ(1+ϵ2)2 我们发现 ÿ
f0(ϵ)f0(ϵ)=12ϵ(1+ϵ2)211+ϵ2=2ϵ1+ϵ2.
在这里我们使用的定义 瓦特= ˚F ' 0 ε
l(y)μ=f0(ϵi)f0(ϵi)=f0(ϵi)f0(ϵi)(1ϵi)(ϵi)=wiϵi
记住的是, ε=ÿ-μ我们得到方程 Σ瓦特Ŷ=μΣ瓦特 这是IRLS的估计方程。注意
wi=f0(ϵi)f0(ϵi)(1ϵi)=2ϵi1+ϵi2(1ϵi)=21+ϵi2.
ϵi=yiμ
wiyi=μwi,
  1. 权重始终为正。wi
  2. 如果残差很大,我们将给予较少的权重。

μ^(0)

ϵi(0)=yiμ^(0)
wi(0)=21+ϵi(0).
μ^
μ^(1)=wi(0)yiwi(0).
ϵi(j)=yiμ^(j)
wi(j)=21+ϵi(j).
j+1
μ^(j+1)=wi(j)yiwi(j).
μ^(0),μ^(1),,μ^(j),

现在,我们使用更一般的位置和比例尺族研究此过程f(y)=1σf0(yμσ)Y1,Y2,,Ynϵi=yiμσ

l(y)=n2log(σ2)+log(f0(yiμσ)).
ν=σ2
ϵiμ=1σ
ϵiν=(yiμ)(1ν)=(yiμ)12σ3.
l(y)μ=f0(ϵi)f0(ϵi)ϵiμ=f0(ϵi)f0(ϵi)(1σ)=1σfo(ϵi)f0(ϵi)(1ϵi)(ϵi)=1σwiϵi
σ2
l(y)ν=n21ν+f0(ϵi)f0(ϵi)ϵiν=n21ν+f0(ϵi)f0(ϵi)((yiμ)2σ3)=n21ν121σ2f0(ϵi)f0(ϵi)ϵi=n21ν121νf0(ϵi)f0(ϵi)(1ϵi)(ϵi)ϵi=n21ν+121νwiϵi2=!0.
σ2^=1nwi(yiμ^)2.

在下面,我们为双指数模型(已知比例)和数据使用R给出数值示例y <- c(-5,-1,0,1,5)。对于此数据,ML估计量的真实值为0。初始值为mu <- 0.5。算法的一遍是

  iterest <- function(y, mu) {
               w <- 1/abs(y-mu)
               weighted.mean(y,w)
               }

使用此功能,您可以尝试“手动”进行迭代,然后可以通过以下方式完成迭代算法:

mu_0 <- 0.5
repeat {mu <- iterest(y,mu_0)
        if (abs(mu_0 - mu) < 0.000001) break
        mu_0 <- mu }

tkσ

wi=k+1k+ϵi2.
w(ϵ)=1eϵ1+eϵ1ϵ.

目前,我将其保留在此处,我将继续发布该帖子。


uui

1
我将添加更多内容,只是时间不够了!想法保持不变,但细节涉及更多。
kjetil b halvorsen

2
会来的!
kjetil b halvorsen

1
tk

2
您介意在继续此说明的地方撰写博客文章吗?对我来说真的很有用,我相信对其他人也会有用...
ihadanny
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.