2
在为支持向量机选择学习参数的背景下,如何适当地应用交叉验证?
出色的libsvm软件包提供了python接口和文件“ easy.py”,该文件可自动搜索学习参数(cost和gamma),以最大程度地提高分类器的准确性。在给定的一组候选学习参数中,可以通过交叉验证来实现准确性,但是我觉得这破坏了交叉验证的目的。也就是说,就学习参数本身而言,可能会导致数据过度拟合的方式选择,我觉得更合适的方法是在搜索本身的级别上应用交叉验证:执行搜索在训练数据集上进行评估,然后通过在单独的测试数据集中进行评估来评估由最终选择的学习参数得出的SVM的最终准确性。还是我在这里想念什么?