最大似然估计和梯度下降之间有什么区别?


16

这两种方法的优缺点是什么?


1
我不仅在寻找Google搜索中已经定义的这两种方法。我试图了解在这种情况下首选哪种方法。例如:对于Bigdata会比其它等更好的工作,我找不到任何好的材料有关的实际问题等举行会谈
GeorgeOfTheRF

8
乌鸦像写字台吗?
ub

4
@ML_Pro GD与统计建模无关,它是一种算法。在学习用于解决统计问题的工具(例如GD)之前,您可能可以从一些入门统计手册开始,以更好地了解统计推断。
蒂姆

1
您是否要问梯度下降期望最大化(通常用于解决MLE中的优化问题)之间的区别?
索比2015年

Answers:


32

最大似然估计是通过最大化定义为的似然函数来估计统计模型中参数通用方法

L(θ|X)=f(X|θ)

也就是说,在给定参数θ的某个值的情况下获得数据的概率。知道了给定问题的似然函数后,您可以寻找可以最大程度地获得数据的θ。有时我们知道估算器,例如,算术平均值是用于正态分布的μ参数的MLE估算器,但是在其他情况下,您可以使用不同的方法,包括使用优化算法。ML方法不告诉你如何找到最优值θ -你可以简单地猜测和使用的可能性比较哪个猜测是更好-它只是告诉你,你怎么能比较的,如果一个值Xθθμθ比另一个更“可能”。θ

梯度下降是一种优化算法。您可以使用此算法查找许多不同函数的最小值(或最大值,然后称为“梯度上升”)。该算法并不真正在乎它最小化的功能是什么,它只是按照要求进行操作。因此,使用优化算法时,您必须知道如何知道目标参数的一个值是否比另一个参数“更好”。您必须为算法提供一些函数以使其最小化,并且该算法将处理找到其最小值的问题。

您可以使用不同的方法获得最大似然估计,并且使用优化算法就是其中之一。另一方面,梯度下降也可用于最大化似然函数以外的函数。


5
@ML_Pro我提供了两个链接,您可以在其中找到详细信息,我认为没有必要重复这些答案。
蒂姆

8
正如我在回答中所写的@ML_Pro,它们是不同的东西,您无法比较它们……
蒂姆

7
是的,但是MLE是一种通用方法,而GD只是一种算法,可用于最小化许多不同的功能。就像您将代数与袖珍计算器进行了比较...
蒂姆

4
MLE指定目标函数(似然函数);指定目标函数后,GD会找到问题的最佳解决方案。您可以使用GD(或其他优化算法)解决最大似然问题,结果将是最大似然估计器。
jbowman 2015年

1
@ML_Pro,这在我在答案中提供的链接中有描述。简而言之:是的,它是pdf的产物。产品,因为我们假设数据是iid,因为我们正在讨论概率模型,所以它是根据pdf定义的。
蒂姆

-3

通常,当我们得到似然函数,我们求解方程 d f

f=l(θ)
dfdθ=0

我们可以得到的值,可以给出的最大值或最小值!

θ
f

但是通过这种方式,逻辑回归的似然函数没有封闭形式的解决方案。因此,我们必须使用其他方法,例如gradient descent


@Tim,你可以看到一些从这里开始,courses.cs.washington.edu/courses/cse446/13sp/slides/...
Belter

“回归系数是使用最大似然估计通常估计”(en.wikipedia.org/wiki/Logistic_regression

最大似然估计确实是一种估计回归系数的方法,但是我们有几种方法可以找到MLE的解。因此,使用likelihood function+ gradient descent(获得似然函数的解)仍然是进行MLE的一种方法。
贝尔特

您还可以Unlike linear regression, we can no longer write down the MLE in closed form. Instead, we need to use an optimization algorithm to compute it. For this, we need to derive the gradient and Hessian.从《机器学习:概率论》(Kevin Murphy)中看到这句话。
贝尔特

...然后答案的措辞令人困惑,因为听起来您在说逻辑回归中我们没有使用ML,而是使用了GD。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.