随着科学的进步,许多哲学问题已经消失了,而自由意志仍然保持着当初的神秘,与其在亚里士多德和迈蒙尼德时代的形象没什么两样。此外,虽然在精神或神学的某些层面,人的自由意志的合理性曾得到过证明,但这些解释并不适用于一台由程序控制的机器。所以,任何宣称其所研发出的机器人拥有自由意志的做法都一定是在制造噱头——至少传统观点是这么认为的。
并非所有的哲学家都相信自由意志和决定论之间存在冲突。还有一派被称作“兼容并包者”(我自己就是其中一员),他们认为二者只是在描述的两个不同的层面时存在明显的冲突:一是神经层面,在这一层面,过程看起来是决定性的(暂且不考虑量子不确定性的问题);二是认知层面,在这一层面,我们能体验到生动的自主选择的感觉。这种明显的冲突在科学中并不少见。例如,物理方程在微观层面上具有时间可逆性,但在描述的宏观层面上则显得不可逆转,比如烟雾永远不会回流到烟囱里。但这又引发了新的问题:假设自由意志是(或者可能是)一种幻觉,那么为什么对我们人类来说,拥有这种幻觉如此重要?为什么进化过程不辞辛劳地赋予我们这个概念?不管是不是在制造噱头,我们是否都应该尝试着给下一代计算机编写程序,让它们拥有这种幻觉?这样做的目的何在?它带来了哪些计算优势?
我认为,理解自由意志幻觉的功能是解开它如何才能与决定论相调和这一深奥谜题的关键。而一旦我们赋予一台确定性机器同样的功能,问题就会迎刃而解。
除了功能问题,我们还必须处理模拟问题。如果是大脑中的神经信号引发了我们所有的行动,那么我们的大脑就一定会忙于用“意志”或“有意”来美化某类行动,而用“无意”来美化另一类行动。那么,这个贴标签的过程到底是什么?什么样的神经路径会得到带有“意志”标签的特定信号?
在许多情况下,人的自发行为都被认为会在短期记忆中留下痕迹,这个痕迹就反映了背后的目的或动机。例如,“你为什么这么做?”“因为我想打动你。”或者,就像夏娃在伊甸园给出的回答:“蛇欺骗了我,我就吃了。”但在许多其他的情况下,我们采取了有意的行动,却没有什么理由或动机。对行动的合理化可能是一个事后重建的过程。例如,一个足球运动员也许能够解释为什么他决定把球传给乔而不是查理,但这些原因几乎不可能有意识地触发了他的这一行动。在球赛最激烈的时候,数以千计的输入信号都在抢占运动员的注意力。我们要做出的关键的决定是哪些信号需要优先处理,而决定背后的原因往往很难回忆和阐明。
目前,人工智能领域的研究者正试图回答这两个问题,即功能问题和模拟问题,其中前者驱动了后者。一旦认识到自由意志在我们的生活中发挥了怎样的计算功能,我们就可以给机器配备这样的功能。如此,这两个问题就被转化为一个工程问题,虽然解决这一工程问题仍然非常困难。
对我来说,功能问题的某些方面尤其值得展开讨论。自由意志的幻觉使我们有能力谈论我们的意图,同时也允许我们使用反事实逻辑,让我们的意图服从于理性思考。当教练把我们从足球比赛中拉出来,对我们说“你本应该把球传给查理”的时候,不妨想想这几个字所内含的复杂含义。
首先,这种“本应该”指令的发出其目的是迅速将这一有价值的信息从教练传递给球员:将来面临类似的情况时,你要选择行动B而不是行动A。但“类似的情况”太多了,甚至连教练自己也不清楚都有哪些。教练并没有列出这些“类似的情况”的特点,而是针对球员的行动发出指令,因为行动表明了球员在做决定时的意图。教练通过指出行动的不恰当,要求球员识别导致他做出此决定的“软件程序包”,然后重置这些程序包中的优先级,以便让“传球给查理”成为首选行动。这项指令包含着深刻的智慧,因为除了球员自己,还有谁能知道这些程序包的具体特性?它们是不可名状的神经路径,教练或任何外部观察者都无法一窥究竟。要求球员采取与之前其所采取的做法不同的做法,就相当于提倡对特定意图进行具体分析,就像我们上面提到的那样。因此,根据意图进行思考给我们提供了一种简化方法,使我们能将复杂的因果指令转换为简单的指令。
如果能够设计出就像拥有自由意志一样可以相互沟通的机器人,让它们组成一支球队,我想它们一定会踢得更好。无论单个机器人的足球技术有多高超,只要它们能够互相交谈,仿佛自己并不是被安装了预置程序的机器人,而是相信自己有选择权的自主智能体,那么它们的团队表现一定会有所提高。
自由意志的幻觉是否能增强机器人之间的交流,这个问题尚待考察。但无论如何,机器人与人类之间的交流的不确定性都要小得多。为了实现与人类的自然沟通,强人工智能必须了解关于选择和意图的词汇,而这就需要它们模拟自由意志的幻觉。正如我上文所解释的,机器人也可能发现“相信”自己的自由意志更有利,也即达到能够觉察到自己的意图继而“选择”采取另一种行动的智能水平。
一方面,对某人的观点、意图和欲望进行推理的能力一直是人工智能领域的研究者面临的一项重大挑战,这一能力也界定了“智能体”这个概念。另一方面,哲学家将对这类能力的研究作为经典的意识问题的一部分。已经有几代科学精英讨论过“机器可以有意识吗”或“是什么使软件智能体区别于普通的程序”这类问题,在此我也不会假装自己能够给出这类问题的完整答案。但我相信,反事实的算法化是理解这些问题,将意识和智能体转化为计算现实的重要一步。给机器配备对其环境进行符号表示的描述方法,以及赋予它想象该环境发生某种假想的小变化的能力,可以扩展到将机器本身作为环境的一部分。没有哪个机器能处理其自身软件的完整拷贝,但它可以掌握其主要软件组件的设计图摘要。这样,它的其他组件就可以对该设计图进行推理,从而模拟出一种具有自我意识的状态。
为了创造智能体的知觉,我们还必须给这个软件包配备内存,以记录其历史活跃数据,确保其在被问及“你为什么这样做”时有所参考。经过某些具有特定激活模式的路径的行为可以得到一个合理的解释,例如“因为已证明另一种选择没有吸引力”;而另一些不经过特定路径的行为则只能得到推脱和无效答案的搪塞,诸如“我也希望我知道为什么”或“因为你就是这样给我编程的”。
总之,我认为,能够给思维机器带来智能体效益的软件包至少包括3个组成部分:关于世界的因果模型;关于自身软件的因果模型,无论这个模型有多浅显;以及一个内存,用于记录其心理意图对外部事件的反应方式。
这甚至可能正是我们从婴儿期就开始接受的因果教育的模式。我们的头脑中可能存在一个类似于“意图生成器”的东西,它告诉我们,我们应该采取行动X=x。但是孩子们喜欢试验,喜欢违抗父母、老师,甚至他们自己的意图,他们喜欢与众不同的东西,而这一切只是为了好玩。在十分清楚我们应该做X=x的前提下,我们却为了好玩而选择做X=x'。我们会观察接下来发生了什么,然后重复这个过程,并记录我们的意图生成器有多好用。最后,当我们开始调整自己的软件包时,那就是我们开始对自己的行为承担道德责任的时候了。这种责任在神经激活层面可能同样是一种幻觉,但在自我意识软件的层面则切实存在。
受到这些可能性的鼓舞,我相信具备因果思维和智能体能力的强人工智能是可以实现的,而这又引发了科幻小说作家从20世纪50年代以来一直在问的问题:我们应该对此感到担忧吗?强人工智能是一个我们不该打开的潘多拉之盒吗?