编辑:由于一周内未收到任何答复/评论,我想补充一点,我很高兴听到有关该问题的任何消息。我不在该地区工作,因此即使只是简单的观察,我可能也不知道。即使是诸如“我在该地区工作,但我还没有看到这样的特征”之类的评论也会有所帮助!
背景:
学习理论中有几种经过充分研究的学习模型(例如PAC学习,在线学习,带有成员资格/对等查询的精确学习)。
例如,在PAC学习中,概念类的样本复杂度就该类的VC维而言具有很好的组合特征。因此,如果我们想学习具有恒定准确度和置信度的类,可以使用样本来完成,其中是VC维。(请注意,我们谈论的是样本复杂度,而不是时间复杂度。)在准确性和置信度方面,还有一个更精细的表征。同样,在线学习的错误界限模型具有很好的组合特征。
题:
我想知道类似结果是否适用于成员资格查询的精确学习模型。该模型的定义如下:我们可以访问一个黑盒,该黑盒在输入给出。我们知道来自一些概念类。我们想用尽可能少的查询来确定。
是否存在概念类的组合参数,以表征在具有成员资格查询的精确学习模型中学习概念所需的查询数量?
我知道的:
我发现的最好的这种表征是Servedio和Gortler在本文中使用的,他们将其归因于Bshouty,Cleve,Gavaldà,Kannan和Tamon。他们定义了一个称为的组合参数,其中是概念类,具有以下属性。(让Q C为在此模型中学习C所需的最佳查询数。)
这种表征几乎是严格的。但是,上限和下限之间可能存在二次间隙。例如,如果,则下限为Ω (k ),但上限为O (k 2)。(我也认为此差距是可以实现的,即存在一个概念类,其下限均为Ω (k ),但上限为O (k 2)。)