令为位串/标签对,令为布尔值函数的集合。对于每个函数,令: 并令: OPT(C,D)= \ min_ {f \ in C} \ err(f,D) 假设算法A在任何分布上都不可知地学习C,如果对于任何D,它可以2/3的概率找到函数f,从而err(f,D)\ leq OPT(C,D)+ \ epsilon,给定时间和D中的一些样本
它由和1 / \ epsilon中的多项式界定。
问题:在任意分布上,哪些类函数可以从不可知论上学习?
没有上课太简单了!我知道连单调连词在任意分布上都不是不可知论的,所以我只是在寻找功能的非平凡类。
值得一提的是,对于OPT(C,D)> 0(即您的假设假设有误
—
Suresh Venkat 2010年
好点子。在OPT(C,D)= 0的特殊情况下,这是PAC学习,并且容易得多。对于不可知论学习,无论什么OPT(C,D)是什么,保证都必须成立。
—
亚伦·罗斯
还有“ PAC w /分类噪声”的情况,其中OPT(C,D)> 0,即使您具有正确的假设类(可实现的设置),也存在一些错误,因为标签由于噪声而随机翻转了……我希望不同设置的名称不会造成混淆。
—
列夫·雷津
听起来像是不可知论的学习,在OPT(C,D)上具有上限
—
Suresh Venkat 2010年
不完全是因为在分类噪声模型中不允许将噪声设为任意噪声。因此,如果存在某种对抗性噪声模式,使得在不可知论模型中难以学习(或找到经验风险最小化器),那么分类噪声模型中可能就不会经常出现这种噪声模式(即落入PAC delta参数)。
—
列夫·雷津