它是公知的,对于经典PAC学习,的例子是必要的,以便acheive结合的误差ε WHP,其中d是所述概念类的VC-尺寸。
它是已知的都需要在不可知的情况下的例子?
3
我不确定下界是什么样,如果Hoefding界很紧(我认为是这样),下界应该存在。该界限表明,对于1 fn,如果错误概率为p,则最多需要样本才能将p估计在误差+ -ϵ whp之内。因此,请考虑具有2个概念的任何概念类,f 1和f 2以及VC维度2。对示例进行分布,以使p 1 = p 2 + ϵ(反之亦然),这是可能的,因为VC维度为2。似乎仅使用O的算法
—
亚伦·罗斯
示例将暗示改进的Hoefding界。
即,我认为Hoeffding结合被紧在为ø (1 / ε 2)。我认为上述推理是众所周知的...
—
列夫·雷津
好的-好像我在ML课程上还有另一个练习... :)感谢您的输入,Aaron和Lev!
—
Aryeh
@Aaron,也许这应该是个答案。
—
Suresh Venkat