人们常说,高斯过程回归(GPR)对应于(可能)无限数量基函数的贝叶斯线性回归。我目前正在尝试详细了解这一点,以直观了解我可以使用GPR表示哪种模型。
- 您是否认为这是理解GPR的好方法?
在书高斯过程机器学习拉斯穆森和Williams显示该组高斯过程的描述由参数化指数平方内核
- 是否可以将可微内核的参数化始终转换为先验函数和基本函数的参数化,或者是否存在可微内核,例如,基本函数的数量取决于组态?
我的理解至今是,对于一个固定的内核函数K(X,X')Mercer的定理告诉我们,可以表示为ķ (X ,X ')= ∞ Σ我= 1 λ 我φ 我(X )φ 我(X ') 其中,φ 我是一个函数要么到实数或复数。因此,对于给定的内核,相应的贝叶斯回归模型具有先验〜
我的下一个问题是关于默瑟定理的逆定理。
- 哪些基础函数集会导致有效内核?
和扩展
- 哪些参数化基础函数集会导致有效的可区分内核?