我对的性质感到好奇。任何人都可以说出一些直觉的信息“对数据有何看法?”
编辑:
感谢您的回复
在学习了一些很棒的课程之后,我想补充一点:
- 它是信息的度量,即是沿方向的信息量。
- 对偶性:由于是正定的,也是正定的,因此它们是点积范数,更确切地说,它们是彼此的偶范数,因此我们可以针对正则化最小二乘问题导出Fenchel对偶,并最大化wrt对偶问题。我们可以根据它们的条件选择它们之一。
- 希尔伯特空间:和列(和行)跨越相同的空间。因此,使用或表示之间没有任何优势(当这些矩阵之一处于不适状态时)
- 贝叶斯统计:范数在贝叶斯统计中起重要作用。也就是说,它确定了我们之前有多少信息,例如,当先验密度的协方差像 我们将获得非信息性信息(或者可能是Jeffreys先前的信息)
- 惯常统计:使用Cramér-Rao界线,它与Fisher信息密切相关。实际上,费舍尔信息矩阵(对数似然梯度自身的外积)是Cramér–Rao约束的,即(正半定锥,即浓度)椭圆形)。因此,当,最大似然估计器是有效的,即,数据中存在最大信息,因此频频机制是最佳的。用简单的话来说,对于某些似然函数(请注意,似然函数的形式完全取决于可能生成数据的概率模型,即生成模型),最大似然是有效且一致的估计器,其规则类似于老板。(对不起,杀了它)
3
我认为PCA会选取具有较大特征值而不是较小特征值的特征向量。
—
wdg 2014年
(3)是不正确的,因为它是无异于断言的列是那些的(最多的置换),其只为单位矩阵是真实的。
—
ub