引用受到高度赞赏。
预计作者将在开始发表时就其结果的上下文和相关性问题进行探讨。我只是略过“ L. Valiant。一种可学的理论。ACM通讯,1984年,第27页”的介绍。再次发现,Valiant确实很好地解决了您的问题。
Valiant的原始论文既可免费获得,又不难阅读。(第7节除外,该节仅证明作者还可以解决具有挑战性的数学问题,但对论文的实际内容没有多大贡献。)至少阅读其简介比阅读我对此冗长的答案要有意义。问题,所以我建议您尝试一下。
该答案的其余部分试图引述引言中的某些段落,这些段落应表明阅读该引言是否可以回答有关历史背景的问题。但是请注意,作者对于此类问题具有天生的特权。
...至少,这样的系统将是一个很好的开始。首先,当人们考察体现预编程知识的最著名的系统示例时,例如DENDRAL和MYCIN之类的专家系统,基本上除了命题演算之外,没有使用逻辑符号。
对于上下文,这是有趣的信息,因为命题演算比谓语演算或当今有时使用的各种类型理论系统弱得多。(不过,奇怪的是,Prolog(1972)和ML(1973)曾被用作“这类”专家系统的元语言,据我所知,它们似乎超出了简单的命题逻辑。而且,关系模型( 1969年),声称数据库管理基于谓词逻辑。)
也许本文中包含的主要技术发现是,通过这种概率学习的概念,可以对整个布尔函数类进行高度收敛的学习。这似乎将这种方法与更传统的方法区分开来,在传统方法中,学习被视为从不足以进行可靠推论的信息中“诱导”一些一般规则的过程。
我在这里完全同意。能够解释您的解决方案如何解决给定的问题以及从某种意义上说是解决方案,这一点很重要。否则,您将最终得出“无免费午餐”定理,这些定理不允许您将可疑的启发式方法的错误实现与适当的启发式方法的正确实现区别开来。
总而言之,本文试图探索算法复杂度所允许的可学知识的极限。结果与以前的学习工作不同,因为它们试图调和前面提到的三个属性((1)-(3))。与我们的方法最接近的是归纳推理文献。使用统计和其他工具,在模式识别和分类方面有大量工作。在各种非正式的意义上,学习已作为人工智能的一个分支被广泛研究。
属性((1)-(3))是(1)“机器可以证明可学习的概念的整个可表征类”,其中(2)“对于通用知识而言适当而又不平凡”,以及(3)“在计算上过程仅需要可行的(即多项式)步骤数”。