在20世纪80年代和90年代,溯因在溯因逻辑编程(Abductive Logic Programming)的尝试中走进了AI讨论,但这些努力都存在缺陷,后来被放弃了。拉森认为:“它们是对逻辑编程的重写,是演绎的一种变体。” 在本世纪第一个10年,溯因获得了另一个机会,即贝叶斯网络,一种试图计算因果关系的推理引擎。但拉森说,与早期的方法一样,新方法也有一个缺陷,那就是不能捕捉到真正的溯因。此外,他强调,贝叶斯和其他图形模型都是“归纳法的变体”。在《人工智能的神话》中,他称之为“名义上的溯因”。 在很大程度上,AI的历史一直被演绎和归纳所主导。 拉森说:“当早期的AI先驱开始研究人工推理(AI的核心)问题时,他们认为编写演绎式规则会足以产生智能思维和行动。但事实并非如此,早在讨论我们如何开展科学研究时就应该承认这一点。” 几十年来,研究人员试图通过提供手动编写的规则和事实来扩展符号AI系统的力量。前提是,如果你赋予AI系统人类所知晓的所有常识,它就能像人类一样聪明地行动。但纯粹的符号AI由于种种原因失败了。符号系统无法获取和添加新知识,这使得它们变得僵化。创建符号AI变成了无休止的追逐,添加新事实和规则不过是为了发现系统所犯无法修复的新错误。我们的很多知识都是隐性的,无法用规则和事实来表达,也无法直截了当的灌输给符号系统。 “奇怪的是,没有人真正明确地停下来说‘等一下’。这是行不通的!”拉森强调。“这将把研究直接转向溯因或假设生成,或者说,‘上下文敏感的推理’。” 在过去的20年里,随着数据和计算资源的可用性不断增长,ML算法——尤其是深度神经网络——无疑成为AI领域关注的焦点。深度学习技术已经解锁了许多超越先前计算机限制的应用程序。并且,它吸引了世界上一些最富有的公司的兴趣和资金。 “我认为随着万维网的出现,经验或归纳(以数据为中心)的方法占据了主导地位,而溯因和推理在很大程度上被遗忘了。”拉森表示。 但ML系统也受到了严重的限制,包括缺乏因果关系、边缘案例处理不佳,以及需要大量数据。随着研究人员尝试将ML应用于医疗和金融等敏感领域,这些限制变得越来越明显和问题化。
|