Questions tagged «optunity»

2
对于超参数调整,粒子群优化优于贝叶斯优化的优势?
关于贝叶斯优化(1)的大量当代研究用于调整ML超参数。此处的驱动动机是,需要最少数量的数据点来做出明智的选择,以选择值得尝试的点(目标函数调用价格昂贵,因此减少选点会更好),因为训练模型会占用大量时间-适度我正在处理的大型SVM问题可能需要几分钟到几个小时才能完成。 另一方面,Optunity是一个粒子群实现,可以解决同一任务。我对PSO并不十分熟悉,但是在要求更多的试验点和目标函数评估来评估超参数表面的意义上,PSO的效率似乎必须较低。 我是否错过了使PSO在机器学习环境中优于BO的关键细节?还是在针对超参数调整任务的两个始终固有的上下文之间进行选择? (1)Shahriari等人,“将人类带出循环:贝叶斯优化理论综述”。

2
多类分类中的Scikit SVM输出始终给出相同的标签
我目前正在使用带有以下代码的Scikit学习: clf = svm.SVC(C=1.0, tol=1e-10, cache_size=600, kernel='rbf', gamma=0.0, class_weight='auto') 然后用7个不同的标签拟合并预测一组数据。我得到了一个奇怪的输出。无论我在验证集上使用预测的标签是哪种交叉验证技术,始终都是标签7。 我尝试了其他一些参数,包括完整的默认参数one(svm.SVC()),但是只要我使用的内核方法rbf代替,poly否则linear它将无法工作,而对于polyand 来说确实很好linear。 此外,我已经尝试对火车数据而不是验证数据进行预测,它非常适合。 有人以前见过这种问题,知道这里发生了什么吗? 我从不详细查看我的班级分布,但我知道应该有30%左右是7、14%是4。 我什至尝试手动进行1-vs-rest实施,但仍然没有帮助。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.