Answers:
总采样点。已知这是NP困难的。知道损失函数的当前值并不能提供有关如何修改当前解决方案以进行改进的任何线索,因为可以推导出是否可以使用凸函数或连续函数的梯度方法。
实际上,分类错误有时很容易解决。可以使用Nelder-Mead方法有效(尽管不是完全准确)对其进行优化,如本文所示:
https://www.computer.org/csdl/trans/tp/1994/04/i0420-abs.html
“降维是将多维矢量转换为低维空间的过程。在模式识别中,通常希望执行此任务而不会大量损失分类信息。贝叶斯误差是实现此目的的理想标准;但是,因此,在实践中使用了次优准则,我们基于贝叶斯误差的估计提出了一个替代准则,希望该准则比当前使用的准则更接近最佳准则。根据这一标准,设计并实现了一种用于线性降维的算法,实验证明了其与常规算法相比的优越性能。”
这里提到的贝叶斯误差基本上是0-1损失。
这项工作是在减小线性尺寸的情况下完成的。我不知道这对于训练深度学习网络有多有效。但问题的关键在于,0-1损失并非普遍难以解决。对于至少某些类型的模型,可以相对较好地进行优化。