1
通过无限维基函数视图了解高斯过程回归
人们常说,高斯过程回归(GPR)对应于(可能)无限数量基函数的贝叶斯线性回归。我目前正在尝试详细了解这一点,以直观了解我可以使用GPR表示哪种模型。 您是否认为这是理解GPR的好方法? 在书高斯过程机器学习拉斯穆森和Williams显示该组高斯过程的描述由参数化指数平方内核ķ (X ,X′; l )= σ2p经验值( -(x - x )22 升2)ķ(X,X′;升)=σp2经验值(-(X-X)22升2)k(x,x';l)= \sigma_p^2\exp\left(-\frac{(x-x)^2}{2l^2}\right)可以等价描述为与现有信念贝叶斯回归瓦特〜Ñ(0 ,σ2p一世)w〜ñ(0,σp2一世)w \sim \mathcal{N}(0,\sigma_p^2 I)上的权重和的形式的基础函数的无限量ϕC(x ; l )= 经验值( - (x - c )22 升2)ϕC(X;升)=经验值(-(X-C)22升2)\phi_c(x;l)=\exp\left(-\frac{(x-c)^2}{2l^2}\right) 因此,内核的参数化可以完全转换为基本函数的参数化。 是否可以将可微内核的参数化始终转换为先验函数和基本函数的参数化,或者是否存在可微内核,例如,基本函数的数量取决于组态? 我的理解至今是,对于一个固定的内核函数K(X,X')Mercer的定理告诉我们,可以表示为ķ (X ,X ')= ∞ Σ我= 1 λ 我φ 我(X )φ 我(X ') 其中,φ 我是一个函数要么到实数或复数。因此,对于给定的内核,相应的贝叶斯回归模型具有先验〜ķ (X ,X′)ķ(X,X′)k(x,x')ķ (X ,X′)= ∑我= …