Questions tagged «discriminant-analysis»

线性判别分析(LDA)是降维和分类方法。它找到具有最强类分离的低维子空间,并使用它来执行分类。将此标签也用于二次DA(QDA)。


2
选择将组分开的PCA组件
我经常使用PCA诊断我的多元数据(具有数十万个变量和数十个或数百个样本的组学数据)。数据通常来自具有定义某些组的几个类别自变量的实验,在找到能够显示感兴趣的组之间分离的组件之前,我经常必须经过几个组件。我想出了一种相当原始的方式来找到这种可区分的组件,我想知道 在何种程度上是合理/合理的,并且 是否有更好的方法可以达到相同目的。 请注意,这是探索性的。在说服别人之前,我想说服自己。如果我发现有一些组件可以清楚地区分感兴趣的组(例如,控制组与治疗组),即使它们是响应方差的一小部分,则我更相信它,而不是受监督机器的结果学习。 这是我的方法。我将使用R中pca3d的“ metabo”示例数据集。 这个想法是评估独立变量可以解释每个分量有多少差异。为此,我为每个组件计算一个简单模型,并使用作为度量标准,以将组件从“最有趣”到“最不有趣”进行排序。R2R2R^2 require( pca3d ) # data on metabolic profiles of TB patients and controls data( metabo ) # first column is the independent variable pca <- prcomp( metabo[,-1], scale.= T ) # create a model for each component lm.m <- lm( pca$x ~ metabo[,1] …

1
LDA的代数。变量的Fisher判别力和线性判别分析
显然, Fisher分析的目的是同时最大化类之间的距离,同时最小化类内离散。因此,对角线量给出了变量判别力的有效度量。Bii/WiiBii/WiiB_{ii}/W_{ii} http://root.cern.ch/root/htmldoc/TMVA__MethodFisher.html 我了解p x p之间(B)和内部类(W)矩阵的大小()由输入变量的数量给出p。鉴于此,Bii/WiiBii/WiiB_{ii}/W_{ii}如何成为单个变量的“有用的判别量”?构造矩阵B和W至少需要两个变量,因此各个迹线将代表一个以上的变量。 更新:我是否认为不是隐含总和的迹线,而是矩阵元素除以的迹线?目前,这是使表达式与概念保持一致的唯一方法。 B 我我 W¯¯ 我我Bii/WiiBii/WiiB_{ii}/W_{ii}BiiBiiB_{ii}WiiWiiW_{ii}

2
高斯的“判别式”分析模型为何如此称呼?
高斯判别分析模型学习,然后应用贝叶斯规则评估 因此,它们是生成模型。为什么将其称为判别分析?如果是因为我们最终得出了类之间的判别曲线,则所有生成模型都将发生这种情况。P (y | x )= P (x | y )P p r i o r(y )P(x | y)P(x|y)P(x|y)P(y| x)= P(x | y)Pp - [R 我ö ř(y)ΣG∈ ÿP(x | g)Pp - [R 我ö ř(克)。P(y|x)=P(x|y)Pprior(y)Σg∈YP(x|g)Pprior(g).P(y|x) = \frac{P(x|y)P_{prior}(y)}{\Sigma_{g \in Y} P(x|g) P_{prior}(g) }.

2
如何计算Fisher标准权重?
我正在研究模式识别和机器学习,并且遇到了以下问题。 考虑一个具有相同先验概率的两类分类问题P(D1)=P(D2)=12P(D1)=P(D2)=12P(D_1)=P(D_2)= \frac{1}{2} 以及每个类中实例的分布 p(x|D1)=N([00],[2001]),p(x|D1)=N([00],[2001]), p(x|D_1)= {\cal N} \left( \begin{bmatrix} 0 \\0 \end{bmatrix}, \begin{bmatrix} 2 & 0 \\ 0 & 1 \end{bmatrix} \right), p(x|D2)=N([44],[1001]).p(x|D2)=N([44],[1001]). p(x|D_2)= {\cal N} \left( \begin{bmatrix} 4 \\ 4 \end{bmatrix}, \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \right). 如何计算Fisher标准权重? 更新2:我的书提供的计算权重为: 。W=[−43−29]W=[−43−29]W=\begin{bmatrix} \frac{-4}{3} \\ \frac{-2}{9} \end{bmatrix} …


2
分类问题中类可分离性的度量
Fisher的线性判别率是衡量线性判别学习者班级可分离性的一个很好的例子。还有其他有用的指标来确定功能集是否在目标变量之间提供了良好的类分离吗?特别是,我有兴趣寻找良好的多变量输入属性以最大程度地实现目标类别的分离,并且最好采用非线性/非参数度量来快速确定它们是否提供良好的可分离性。

3
可以使用线性判别分析(LDA)中的标定值在线性判别式上绘制解释变量吗?
使用通过主成分分析获得的值的双图,可以探索构成每个主成分的解释变量。 使用线性判别分析是否也有可能? 提供的示例使用。数据为“埃德加·安德森的虹膜数据”(http://en.wikipedia.org/wiki/Iris_flower_data_set)。这是虹膜数据: id SLength SWidth PLength PWidth species 1 5.1 3.5 1.4 .2 setosa 2 4.9 3.0 1.4 .2 setosa 3 4.7 3.2 1.3 .2 setosa 4 4.6 3.1 1.5 .2 setosa 5 5.0 3.6 1.4 .2 setosa 6 5.4 3.9 1.7 .4 setosa 7 4.6 3.4 1.4 .3 …

3
您何时会在分类中使用PCA而不是LDA?
我正在阅读这篇文章,了解主成分分析和多重判别分析(线性判别分析)之间的区别,并且我试图理解为什么您会使用PCA而不是MDA / LDA。 解释总结如下: 粗略地讲,在PCA中,我们试图找到数据散布最大的方差最大的轴(在一个类内,因为PCA将整个数据集视为一个类),而在MDA中,我们额外在最大化各类之间的散布。 您不是总想同时最大化方差和最大化类之间的差异吗?

1
贝叶斯和费舍尔的线性判别分析方法
我知道2种进行LDA的方法,贝叶斯方法和费舍尔方法。 假设我们有数据(x ,y)(X,ÿ)(x,y),其中XXx是ppp维预测变量,ÿÿy是ķķK类的因变量。 通过贝叶斯方法,我们计算后验p (ÿķ| x)= p (x | yķ)p (yķ)p (x )∝ p (x | yķ)p (yķ)p(ÿķ|X)=p(X|ÿķ)p(ÿķ)p(X)∝p(X|ÿķ)p(ÿķ)p(y_k|x)=\frac{p(x|y_k)p(y_k)}{p(x)}\propto p(x|y_k)p(y_k),如书中所述,假设p (x | yķ)p(X|ÿķ)p(x|y_k)是高斯函数,那么我们现在将第ķķk类的判别函数设为,我可以看到˚Fķ(X)是一个线性函数X,所以对于所有的ķ我们有类ķ线性判别函数。Fķ(x )= lnp (x | yķ)+ lnp (ÿķ)= ln[ 1(2 π)p / 2| Σ |1 / 2经验值( − 12(X - μķ)ŤΣ− 1(X - μķ)) ] +lnp (ÿķ)= xŤΣ− 1μķ− …

1
处理峰度产生的异常值
我想知道是否有人可以帮助我了解有关峰度的信息(即,是否有任何方法可以转换您的数据以减少它?) 我有一个包含大量案例和变量的问卷数据集。对于我的一些变量,数据显示出相当高的峰度值(即瘦小体分布),这是由于许多参与者对该变量给出的分数完全相同。我确实有一个特别大的样本量,因此根据中心极限定理,违反正态性仍然可以。 但是,问题在于,峰度特别高的事实在我的数据集中产生了许多单变量离群值。这样,即使我转换数据或除去/调整异常值,峰度的高水平也意味着下一个最高分会自动变为异常值。我打算使用(判别函数分析)。如果违规是由偏斜而不是异常值引起的,则据说DFA可以很好地抵制偏离正常状态的情况。此外,据说DFA特别受数据中异常值的影响(Tabachnick&Fidel)。 关于如何解决这个问题的任何想法?(我最初的想法是某种控制峰度的方法,但是如果我的大多数样本都给出类似的评分,那不是一件好事吗?)

1
聚类分析,然后进行判别分析
我在文献中不时看到的(主要是关于精神障碍的临床分型),如果对基于k均值的聚类算法的结果使用判别分析(DA),有什么理由(如果有)? 通常不建议测试在聚类构建过程中使用的变量的组差异,因为它们支持类间(分别为类内)惯性的最大化(最小化)。因此,除非我们设法将个体嵌入较小维度的阶乘空间中,并获得这种划分的“一般化”的想法,否则我不确定是否会完全理解预测DA的附加值。但是即使在这种情况下,聚类分析从根本上仍然是一种探索性工具,因此乍一看,使用以这种方式计算的类成员资格来进一步得出评分规则似乎很奇怪。 对相关论文有什么建议,想法或指示吗?

1
在线性,二次方和费舍尔判别分析上,来源似乎存在分歧
我正在研究判别分析,但在调和几种不同的解释时遇到了困难。我相信我一定会错过一些东西,因为我以前从未遇到过这种(似乎)差异水平。话虽如此,有关该网站上判别分析的问题数量似乎证明了其复杂性。 LDA和QDA几类 我的主要教科书是强生公司的应用多元统计分析(AMSA)和基于此的老师的笔记。我将忽略两组设置,因为我相信此设置中的简化公式至少会引起一些混乱。根据此来源,LDA和QDA被定义为基于预期的误分类成本(ECM)的分类规则的参数(假设多元正态性)扩展。ECM对将新观察值x划分到任何组的条件期望成本求和(包括误分类成本和先验概率),我们选择将其最小化的分类区域。其中ECM=∑i=1groupspi[∑k=1; i≠kgroupsP(k|i)c(k|i)]ECM=∑i=1groupspi[∑k=1; i≠kgroupsP(k|i)c(k|i)]ECM = \sum_{i=1}^{groups} p_i [\sum_{k=1;\space i \ne k}^{groups}P(k|i)c(k|i)]P(k|i)=P(classifying item as group k | item is group i)=∫Rkfi(x)dxP(k|i)=P(classifying item as group k | item is group i)=∫Rkfi(x)dxP(k|i) = P(\text{classifying item as group k } | \text{ item is group i}) = \int_{R_k} f_i(\boldsymbol{x})d\boldsymbol{x},fi(x)fi(x) f_i(\boldsymbol{x})是人口密度,RkRkR_k是k组中的一组观测值,ccc是成本,pipip_i是先验概率。然后可以将新的观测值分配给内部项最小或等效的内部项p_k f_k(\ boldsymbol {x})剩余部分pkfk(x)pkfk(x)p_k …

1
使用LDA作为预处理步骤时的功能标准化
如果使用多类线性判别分析(或有时也阅读“多判别分析”)进行降维(或通过PCA进行降维后的变换),则我通常会理解为即使使用完全不同的比例尺测量功能也不需要,对吗?因为LDA包含类似于马哈拉诺比斯距离的术语,已经暗示了标准化的欧几里得距离? 因此,不仅没有必要,而且在LDA上标准化和非标准化功能的结果应该完全相同!

3
LDA与感知器
我正在尝试了解LDA如何“适合”其他受监督的学习技术。我已经在这里阅读了有关LDA的一些LDA风格的帖子。我已经熟悉感知器,但是现在才学习LDA。 LDA如何“适应”监督学习算法系列?与其他方法相比,它的缺点可能是什么?它可能会更好地用于哪些方面?为什么要使用LDA,例如当人们只能使用感知器时?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.