13 我知道特征选择和降维都旨在减少原始特征集中的特征数量。如果我们在两者中做相同的事情,两者之间的确切区别是什么? machine-learning pca feature-selection dimensionality-reduction — 伦敦人 source
13 不同之处在于,通过特征选择生成的特征集必须是原始特征集的子集,而不必通过降维处理而生成的特征集(例如,PCA通过从原始的,然后丢弃次要的)。 这种方式的特征选择是降维的一种特殊情况。 — FairMiles source
0 特征选择适用于方差,而维数缩减适用于特征值和特征向量。 在特征选择中,我们实际上是在处理属性,并基于方差保留属性,但是在降维的情况下,我们会基于协方差创建新的维。 希望我的回答能帮助您感谢您提出的问题。 — 里夫斯 source 嗯...特征选择对方差有效吗? — Siong Thye Goh VarianceThreshold是用于选择功能的简单基准方法 scikit-learn.org/stable/modules/feature_selection.html — Reeves 降维不必使用特征值和特征向量,例如,不需要UMAP和t-SNE。 — alan ocallaghan