有些资料说似然函数不是条件概率,有些则说是。这让我很困惑。
根据我所见的大多数资料,给定样本,具有参数的分布的可能性应该是概率质量函数的乘积:
例如,在Logistic回归中,我们使用优化算法来最大化似然函数(最大似然估计),以获得最优参数,从而获得最终的LR模型。给定我们假设彼此独立的训练样本,我们希望最大化概率乘积(或联合概率质量函数)。这对我来说似乎很明显。
根据“ 可能性,条件概率和失败率之间的关系 ”,“可能性不是概率,也不是条件概率”。它还提到:“仅在贝叶斯对似然性的理解中,即,如果假设是随机变量,那么似然性就是条件概率。”
我读到了关于在常客和贝叶斯之间对待学习问题的不同观点。
根据消息来源,对于贝叶斯推断,我们具有先验,似然性,并且我们希望使用贝叶斯定理获得后验:
我不熟悉贝叶斯推理。为什么,其是在它的参数条件所观察到的数据的分发,也被称为可能性有多大?在Wikipedia中,它说有时写成。这是什么意思?
Frequentist和Bayesian对可能性的定义之间有区别吗?
谢谢。
编辑:
解释贝叶斯定理的方法有多种-贝叶斯定理和惯常论的解释(请参阅:贝叶斯定理-维基百科)。