给定一个层次模型,我想要一个两阶段的过程来拟合模型。首先,固定少数几个超参数θ,然后对其余参数ϕ进行贝叶斯推断。为了修复超参数,我正在考虑两种选择。
- 使用经验贝叶斯(EB)并最大化边际可能性(整合包含高维参数的模型的其余部分)。
- 使用交叉验证(CV)技术(例如倍交叉验证)来选择使似然性p最大化的θ (测试数据| 训练数据,θ )。
EB的优势在于,我可以一次使用所有数据,而对于CV,我需要(潜在地)多次计算模型似然并搜索。在许多情况下,EB和CV的性能是可比的(*),通常EB的估算速度更快。
问题:是否存在将两者联系起来的理论基础(例如,EB和CV在大数据限制内是相同的)?还是将EB与某些通用性标准(例如经验风险)联系起来?有人可以指出良好的参考资料吗?
(*)作为说明,这是墨菲的机器学习(Murphy's Machine Learning)第7.6.4节中的图,他说,对于岭回归,两个过程都产生非常相似的结果:
墨菲还说,经验贝叶斯(他称其为“证据程序”)相对于CV的主要实践优势是,当由许多超参数组成时(例如,对每个特征进行单独惩罚,如自动相关性确定或ARD)。根本不可能使用CV。