Questions tagged «manifold-learning»

3
什么是歧管?
在降维技术(例如主成分分析,LDA等)中,经常使用术语歧管。非技术术语是什么?如果点属于我要减小尺寸的球体,并且存在噪声且和不相关,则实际点会由于噪声而彼此分离。因此,将需要噪声过滤。因此,将在上执行尺寸缩减。因此,在这里和属于不同的流形吗?xxxyyyxxxyyyxxxz=x+yz=x+yz = x+yxxxyyy 我正在处理机器人视觉中经常使用的点云数据;由于采集中的噪声,点云很吵,我需要在减小尺寸之前减小噪声。否则,我会得到不正确的尺寸缩小。那么,这里的流形是什么?噪声是属于同一流形的一部分吗?xxx

2
如何理解“非线性降维”中的“非线性”?
我试图了解线性降维方法(例如PCA)和非线性降维方法(例如Isomap)之间的差异。 在这种情况下,我不太了解(非线性)含义。我从维基百科上得知 相比之下,如果使用PCA(线性降维算法)将同一数据集缩小为二维,则结果值的组织就不太好。这表明采样此歧管的高维向量(每个代表字母“ A”)以非线性方式变化。 是什么 采样此歧管的高维向量(每个代表字母“ A”)以非线性方式变化。 意思?或更广泛地说,在这种情况下,我如何理解(非线性)?


2
统计数据的图形直观
在这篇文章中,您可以阅读以下声明: 模型通常由有限维流形上的点表示。θθ\theta 在迈克尔·K·默里和约翰·赖斯的《微分几何与统计》中,这些概念以散文可读的方式进行了解释,甚至忽略了数学表达式。不幸的是,很少有插图。MathOverflow上的帖子也是如此。 我想寻求视觉表示的帮助,以作为对主题进行更正式理解的地图或动机。 歧管上有什么要点?此在线查找中的引号似乎表明它可以是数据点,也可以是分布参数: 流形和信息几何的统计是差分几何满足统计的两种不同方式。在流形统计中,数据位于流形上,而在信息几何中,数据位于RnRnR^n,但是将感兴趣的概率密度函数的参数化族视为流形。这样的流形被称为统计流形。 我画这个图由切空间的这种解释的启发在这里: [ 编辑以反映以下有关的评论:C∞C∞C^\infty ]在流形,切线空间是与相关的点上所有可能的导数(“速度”)的集合。流经的流形上的所有可能曲线这可以看作是从每条曲线穿过一组映射即定义为组成,用表示曲线(从实线到歧管表面的函数(M)(M)(\mathcal M)p∈Mp∈Mp\in \mathcal M(ψ:R→M)(ψ:R→M)(\psi: \mathbb R \to \mathcal M)p.p.p.p,p,p,C∞(t)→R,C∞(t)→R,C^\infty (t)\to \mathbb R,(f∘ψ)′(t)(f∘ψ)′(t)\left(f \circ \psi \right )'(t)ψψ\psiMM\mathcal M)穿过点并在上图中以红色表示;和表示一个测试功能。“ iso- ”白色轮廓线映射到实线上的同一点,并围绕点。p,p,p,˚F pf,f,f,fffppp 等价(或施加到统计等价中的一个)进行了讨论这里,和将涉及以下引用: 如果指数族的参数空间包含维开放集,则称其为满秩。sss 不是满秩的指数族通常被称为弯曲指数族,因为通常参数空间是维度小于的曲线小号。RsRs\mathcal R^ss.s.s. 这似乎使得对图的解释如下:分布参数(在这种情况下是指数分布族)位于流形上。在秩不足的非线性优化问题的情况下,的数据点将通过函数映射到流形上的一条线。这将与物理学中的速度计算并行:沿着“ iso-f”线的梯度寻找函数的导数(橙色的方向导数):函数将起到优化分布参数选择的作用,如曲线 ψ :- [R → 中号 ˚F (˚F ○ ψ ) '(吨)。˚F :中号 → [R ψ …


1
流形学习和非线性降维有什么区别?
流形学习和非线性降维有什么区别? 我已经看到这两个术语可以互换使用。例如: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html: 流形学习(通常也称为非线性降维)追求的目标是在保持特征特性的同时,将原来位于高维空间中的数据嵌入到低维空间中。 http://www.stat.washington.edu/courses/stat539/spring14/Resources/tutorial_nonlin-dim-red.pdf: 在本教程中,“流形学习”和“降维”可互换使用。 https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3337666/: 降维方法是一类算法,该算法使用数学定义的流形对多维类进行统计采样,以生成保证统计准确性的判别规则。 但是,http ://scikit-learn.org/stable/modules/manifold.html更为细微: 流形学习是非线性降维的一种方法。 我看到的第一个区别是流形可以是线性的,因此应该比较非线性流形学习和非线性降维。

2
如何证明流形假设是正确的?
在机器学习中,通常假设数据集位于光滑的低维流形上(流形假设),但是有任何方法可以证明假设满足某些条件,则确实(近似)生成了数据集来自低维平滑流形? 例如,给定一个数据序列 {X1个…Xñ}{X1…Xn}\{\mathbf{X}_1 \ldots \mathbf{X}_n\} 哪里 X一世∈[RdXi∈Rd\mathbf X_i \in \mathbb{R}^d (例如具有不同角度的面部图像序列)和相应的标签序列 {ÿ1个…ÿñ}{y1…yn}\{ y_1 \ldots y_n\} 哪里 ÿ1个⪯ÿ2…… ⪯ÿñy1⪯y2…⪯yny_1 \preceq y_2 \ldots \preceq y_n (说出面部序列的角度)。假设何时X一世XiX_i 和 X我+ 1Xi+1X_{i+1} 非常接近,他们的标签 yiyiy_i 和 yi+1yi+1y_{i+1} 距离也很近,我们可以想象,很可能 {X1…Xn}{X1…Xn}\{\mathbf{X}_1 \ldots \mathbf{X}_n\}躺在低维流形上。这是真的?如果是这样,我们怎么证明呢?或者该序列需要满足什么条件才能证明流形假设是正确的?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.