Questions tagged «lg.learning»

机器学习理论:PAC学习,算法学习理论以及贝叶斯推理和图形模型的计算方面。

3
统计学习理论最新进展的资源/书
我对VC-Dimension背后的理论非常熟悉,但是现在我正在研究统计学习理论的最新进展(过去10年):(本地)Rademacher平均值,Massart的有限类引理,覆盖数,链接,Dudley的定理,伪尺寸,脂肪碎裂尺寸,装箱数,拉德马赫组成,以及其他可能未知的结果/工具。 是否有网站,调查,文章集,或者最重要的是,涵盖这些主题的书? 另外,我正在研究如何为简单类绑定Rademacher平均的示例,就像人们使用轴对齐的矩形来显示如何绑定VC维度一样。 提前致谢。

1
不可知PAC采样下限
它是公知的,对于经典PAC学习,的例子是必要的,以便acheive结合的误差ε WHP,其中d是所述概念类的VC-尺寸。Ω(d/ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd 它是已知的都需要在不可知的情况下的例子?Ω(d/ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)

1
哪些机器学习分类器最可并行化?
哪些机器学习分类器最可并行化?如果您遇到困难的分类问题,有限的时间,但是要使用一个不错的计算机局域网,那么您将尝试使用哪些分类器? 从旁看来,我看起来像一些我所知道的标准分类器,但我可能完全错了: 随机森林-高度并行化,只要每台机器都可以保存所有数据(即本身不能分割训练数据,但可以并行化)。 提升-? 支持向量机-不可并行化。 决策树-可以部分分解,但效率不高。

3
搜索引擎营销拍卖中的关键字选择问题
首先,我仍然不确定cstheory是否适合此问题,因此,如果人群认为不是这种情况,我不会感到冒犯... 在搜索引擎营销中,有几个问题很有趣。在有限的货币资源下,公平(和可盈利)拍卖机制的设计以及最佳竞价策略的计算是有趣(且文献充分)问题的两个例子。 另一个有趣的问题是关键字选择:如何选择最有利可图的关键字(没有指向可用金额或关键字“主题”的任何链接)。“有利可图”既可以带来最佳收入,也可以带来最佳利润。这些问题涉及不确定性:关键字的点击率未知,转换率也未知。 您知道与此问题有关的一些理论工作吗?


1
均匀分布下2-DNF的正确PAC学习
关于具有样本查询且分布均匀的适当 PAC学习2-DNF公式的查询复杂性的最新结果是什么?还是任何不平凡的约束呢? 因为我对学习理论一点都不熟悉,并且这个问题是由另一个领域提出的,所以答案可能很明显。我检查了Kearns和Vazirani的书,但他们似乎并未明确考虑此设置。 更新。尽管感兴趣的主要参数是查询复杂度,但是运行时间也很重要。如果可能,运行时间最好应与查询复杂度大致相同或最多为多项式。 更新。Balcan和Harvey的“学习亚模函数”论文的附录B(第18页的顶部)提到:“众所周知,2-DNF可以有效地进行PAC学习。” 但是,他们没有提及此结果是用于适当学习还是提供任何参考。

2
随机森林的理论结果?
随机森林在实践者中享有声誉,是最有效的分类技术之一。然而,在学习理论文献中我们很少遇到这些问题,因此我推测它们缺乏深入的理论成果。如果有人想深入研究这一理论,那将从哪里开始呢?


2
是否有已知可以真正通过PAC学习的正式语言族?
我具体指的是允许任意长字符串的语言族-而不是n位或决策列表上的并列或{0,1} ^ n中包含的任何其他“简单”语言。 我要问的是“自动理论”的常规语言,而不是“逻辑理论”的常规语言:诸如分段可测试语言,起始高度为零的语言,本地可测试语言之类的东西。相关的复杂度参数n是最小接受DFA的大小。因此,简而言之:是否有一个有趣的n-state DFA系列,已知可以通过PAC进行有效学习?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.