在阿兰·图灵那篇著名的论文《计算机器与智能》墨迹未干之际,科幻小说家和未来学家对于未来智能机器的假想就开始不断涌现。有时,他们赋予这些智能机器一个和蔼可亲甚至品德高尚的形象,就像《星球大战》中活泼又有点儿冒失的机器人R2D2,或者那个搞怪的英国人形机器人C3PO。但更多的时候,他们倾向于把智能机器想象的十分邪恶,忙于像电影《终结者》中的反派那样密谋毁灭人类,或者致力于像《黑客帝国》中的“母体”一样在虚拟现实中奴役人类。
在所有这些情境中,这些假想中的人工智都更多地反映了作家本人的焦虑或影片特效部的高超本领,而非专业研究者所进行的实际的人工智能研究。毫无疑问,计算机在纯粹的计算能力这方面已远远超出了图灵的期望,而强人工智能却变成了一个比他想象的更难以实现的目标。在第三章,我谈到了人工智能进展缓慢的原因。20世纪70年代和80年代初,人工智能的研究因过于强调基于规则的系统而受到了制约。但事实证明,基于规则的系统是错误的,它们十分脆弱,对其运行假设的任何细微改变都会导致我们必须重写整个系统。这些系统不能很好地应对不确定性或矛盾的数据。此外,这些系统缺乏科学意义上的透明性:你无法在数学上证明它们会按照某种方式运行,而如果运行不当,你也无法精准地指出什么地方需要修改。并非所有人工智能领域的研究者都反对这一认为系统“缺乏透明性”的观点。当时,该领域的研究者分成了两派——“讲究派”(这些人寻求的是建立有运行保障的、足够透明的系统)和“将就派”(这些人对系统的要求是只要可运行,满足工作目的即可)两类,而我一直属于“讲究派”。
我很幸运能在这一领域准备好接受新方法的时候参与进来。贝叶斯网络是概率的,它可以应对充满矛盾和不确定数据的世界。而基于规则的系统则不同,它们是模块化的,易于在分布式计算平台上编码,这让它们运行得很快。最后,对我(以及其他“讲究派”的学者)来说,重要的是,贝叶斯网络以数学的方式可靠地处理概率,这就保证了即便出了什么差错,该差错也只会出现在程序中,而不会出现在我们的思想里。
即使具备了所有这些优势,贝叶斯网络仍然无法理解因果。在贝叶斯网络中,信息被有意地设计为在因果和诊断两个方向中来回流动:烟雾增加了火灾的可能性,火灾增加了烟雾的可能性。事实上,贝叶斯网络甚至无法解释“因果方向”是什么。结果,再一次,对这一奇妙的反常现象的研究,让我从机器学习的领域中脱离出来,走向因果关系的研究领域。我不赞同“未来机器人无法用我们的因果语言与我们沟通”这种观点。一旦踏入因果关系的领地,我自然而然地就被吸引到了其他学科的广阔领域,在那些领域,因果不对称至关重要。
所以,在过去的25年里,从某种程度上说,我是一个自动推理和机器学习领域的“自我流放者”。好在,站在一个更远、更高的位置上,我依然可以知晓人工智能领域当前的变化趋势和最新的发展。
近年来,人工智能最显著的进步发生在一个被称为“深度学习”的领域,它采用的基本方法类似于卷积神经网络。这些网络不遵循概率规则,它们不以严谨或清晰的方式处理不确定性,也没有对其运行环境的明确表征。相反,这些网络的体系结构可以自行发展。在完成了一个对于新的网络的训练后,程序员就不再管它,也无从知晓它正在执行什么计算,或者它们为何有效。如果网络失灵,程序员也不知道应该如何修复它。
一个典型的例子或许是AlphaGo(阿尔法狗),它由谷歌的子公司DeepMind开发,是一个基于卷积神经网络的程序 [1] ,擅长围棋游戏。在人类的完全信息游戏中,围棋一直被认为是人工智能最难啃的一块骨头。虽然计算机程序早在1997年的人机国际象棋大战中就战胜了人类,但直到2015年,即使是面对最低段位的职业围棋选手,人工智能也无法与之匹敌。围棋界人士认为,计算机要实现与职业棋手一较高下,仍需10年甚至更长的时间。
随着AlphaGo的问世,这一局面几乎在一夜之间就被颠覆了。大部分围棋选手是在2015年下半年第一次听说这个程序的,当时它以5∶0的比分击败了一名人类职业棋手。2016年3月,AlphaGo以4∶1的比分击败了近几年来被认为是最顶尖的人类棋手李世石。几个月后,它又同顶尖人类棋手在线对战了60局,而没有输掉一局比赛。2017年,AlphaGo在战胜当时的围棋世界冠军柯洁之后正式“退役”。输给李世石的那一局,是它输给人类的唯一一局比赛。
这些计算机程序所取得的成绩是如此令人激动,其导向的结论似乎也毋庸置疑:对某些任务来说,深度学习具有独特的优势。但这类程序或算法与我们对透明性的追求背道而驰。即使是AlphaGo的程序编写者也不能告诉我们为什么这个程序能把下围棋这个任务执行得这么好。我们只能从经验中了解到,深度网络在计算机视觉和语音识别任务中取得了更多的成功。可以说,我们对深度学习的理解完全是经验主义的,没有任何保证。AlphaGo团队并没有在一开始就预测到,这个程序会在5年的时间内击败人类最好的围棋棋手。他们只是想试验一下,而AlphaGo出人意料地成功了。
有些人可能会说,我们并不真正需要透明。毕竟我们也不太明白人脑是如何工作的,但它的确运行良好,而我们也原谅了自己对于大脑运行机制的肤浅理解。因此,他们指出,为什么不可以在不了解工作原理的情况下将深度学习系统解放出来,创造一种新的智能?我不能说他们错了。此时此刻,“将就派”的确抢占了先机。但我至少可以说,我个人不喜欢模糊的系统,这就是我不研究此类系统的原因。