Frequentist和Bayesian在“可能性”的定义上有什么区别吗?
有些资料说似然函数不是条件概率,有些则说是。这让我很困惑。 根据我所见的大多数资料,给定样本,具有参数的分布的可能性应该是概率质量函数的乘积:θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) 例如,在Logistic回归中,我们使用优化算法来最大化似然函数(最大似然估计),以获得最优参数,从而获得最终的LR模型。给定我们假设彼此独立的训练样本,我们希望最大化概率乘积(或联合概率质量函数)。这对我来说似乎很明显。nnn 根据“ 可能性,条件概率和失败率之间的关系 ”,“可能性不是概率,也不是条件概率”。它还提到:“仅在贝叶斯对似然性的理解中,即,如果假设是随机变量,那么似然性就是条件概率。”θθ\theta 我读到了关于在常客和贝叶斯之间对待学习问题的不同观点。 根据消息来源,对于贝叶斯推断,我们具有先验,似然性,并且我们希望使用贝叶斯定理获得后验:P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} 我不熟悉贝叶斯推理。为什么P(X|θ)P(X|θ)P(X|\theta),其是在它的参数条件所观察到的数据的分发,也被称为可能性有多大?在Wikipedia中,它说有时写成L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta)。这是什么意思? Frequentist和Bayesian对可能性的定义之间有区别吗? 谢谢。 编辑: 解释贝叶斯定理的方法有多种-贝叶斯定理和惯常论的解释(请参阅:贝叶斯定理-维基百科)。