当变量/特征比学习集中的观察数多时,您更喜欢二进制分类的变量/特征选择是什么?这里的目的是讨论什么是可以最大程度减少分类错误的特征选择过程。
我们可以修复符号为:一致性,让从组是学习组观察的。因此是学习集的大小。我们将设置为要素数量(即要素空间的维)。令表示个坐标。{ X 我1,... ,X 我Ñ 我 } 我Ñ 0 + ñ 1 = Ñ p X [ 我] 我X ∈ [R p
如果您无法提供详细信息,请提供完整的参考。
编辑(不断更新):以下答案中提出的程序
- 贪婪的前向选择 二元分类的变量选择过程
- 向后消除 二进制分类的变量选择过程
- Metropolis扫描/ MCMC 二进制分类的变量选择程序
- 惩罚逻辑回归 二进制分类的变量选择过程
由于这是社区Wiki,因此可以进行更多讨论和更新
我要说的是:从某种意义上讲,你们都提供了一种允许对变量进行排序但不允许进行变量选择的过程(关于如何选择特征数量,我非常回避,我想你们都使用了交叉验证吗?)可以改进吗?这个方向的答案?(由于这是社区Wiki,因此您无需成为回答者就可以添加有关如何选择变量数量的信息?我已经在此方向上打开了一个问题,在非常高的维度上进行了交叉验证(可以选择在高维分类中使用的变量)