Answers:
如果您在完整的训练数据中学习了超参数,然后进行交叉验证,您将获得乐观的性能估计,因为每一层的测试数据都已经用于设置超参数,因此,选择所选参数的部分原因是因为它们适合测试集中的数据。以这种方式引入的乐观偏见可能会出乎意料地大。参见Cawley和Talbot,“关于模型选择中的过度拟合和性能评估中的后续选择偏差”,JMLR 11(Jul):2079-2107,2010。(尤其是第5.3节)。最好的办法是嵌套交叉验证。基本思想是交叉验证用于生成模型的整个方法,因此将模型选择(选择超参数)视为模型拟合过程(确定参数)的一部分,太错误了。
如果您对训练集使用交叉验证来确定超参数,然后使用单独的测试集在整个训练集上评估使用这些参数训练的模型的性能,那也很好(只要您有足够的数据以可靠地拟合模型并使用不相交的分区来评估性能)。