• 精选
  • 会员

计算机真的能思考吗

2020年6月24日  来源:大脑的故事 作者:(美)大卫·伊格曼 提供人:paoji68......

计算机真的能思考吗

人们付出了很长时间的努力,想要创造一台能思考的机器。人工智能这条研究路线,至少在20世纪50年代就出现了。尽管最初的拓荒者心态乐观,但事实证明,这个问题难得出人意料。尽管我们很快就能推出自动驾驶的汽车,计算机首次击败人类国际象棋大师距现在也有20多年了,但制造出真正有感知的机器的目标尚未实现。我小时候以为,我们很快就能制造出能跟人类互动的机器人,照料我们,参与有意义的对话互动。可如今,我们距离这样的结果还非常遥远,这充分说明大脑功能之谜是多么深奥,我们解码大自然之母的秘密更是遥遥无期。

英国普利茅斯大学进行了创造人工智能的最新一次尝试。他们制造出一种人形机器人,叫作iCub,按照设计和工程学,它会像人类婴儿那样学习。传统上,机器人要预先编程,掌握完成相关任务所需的知识。但如果机器人能发展出人类婴儿那样的学习方式——通过与世界互动,通过模仿榜样来学习,那会是什么样呢?毕竟,婴儿来到这个世界时不知道怎么说话,也不知道怎么走路,但他们有好奇心,他们关注,他们模仿。婴儿把自己置身的世界视为教科书,通过模仿榜样来学习。机器人不能也这么做吗?

iCub的个头相当于两岁的孩子。它有眼睛、耳朵和触觉传感器,让它能跟世界互动,进行学习。

如果你给iCub展示一件新东西,并说出它的名称,比如“这是一个红色的球”,计算机程序会把物体的视觉形象跟口语标签关联起来。所以,下一次你再拿出红色的球,并问:“这是什么?”它会回答:“这是一个红色的球。”研究人员的目标是,让机器人在每一次互动当中逐渐积累知识,填充知识库。通过在自己的内部代码中进行调整和连接,它能够发展出一套合适的反应技能。

艾伦·图灵在1950年说:“与其尝试设计程序模拟成年人的思想,为什么不试试设计模拟孩子思想的程序呢?”在世界各地的研究实验室里,共有29台相同的iCub,它们使用一套相同的平台,能够将学习所得汇集起来。

iCub经常把事情搞错。如果你展示好几个物体,说出它们的名称,再让iCub逐一把名称说出来,它会犯好几次错误,并多次回答“我不知道”。这是整个过程的一部分。这也表明建立智能到底有多困难。

我花了相当多的时间跟iCub互动,这是一个让人印象很深的项目。但我在那里的时间越长,我就越是明显地发现,这个项目并未带来“思想”。尽管iCub有着一对大眼睛、友好的声音和孩子般的动作,可它没有感知。它靠一行行的代码运行,而非思想。而且,哪怕我们仍然处在人工智能的初级阶段,人们还是会情不自禁地思考一个古老而深刻的哲学问题:一行行的计算机代码真的能思考吗?iCub可以说出“红色的球”,可它真的能够理解红色或者球形的概念吗?计算机是只能按照程序来做事,还是真能拥有内部体验呢?

计算机能够通过编程获得意识和思想吗?20世纪80年代,哲学家约翰·瑟尔(JohnSearle)提出了一项思想实验,准确地切中了这个问题的核心。他称该思想实验为“中文屋论证”(Chinese Room Argument)。

具体是这样的:我被关在一个房间里,一个窄窄的投递口里传来给我的问题——它们全都是用中文写的。我不会中文,我对纸上写的是什么东西毫无头绪。然而,在这个房间里,我拥有一座图书馆,它们包含了逐步的指示,告诉我该怎么处理这些符号。我观察符号的组合,按照书上说的步骤,抄写对应的中文符号作为回复。我把它们写在纸条上,通过投递口传回去。

外面说中文的人收到我回复的信息,完全能够理解信息的意思。在他看来,房间里的人完美地回答了他的问题,因此,很明显,房间里的人肯定是懂中文的。当然,我欺骗了他,因为我只是按照一连串的指示在做,我根本不明白到底是怎么回事。有了足够的时间、足够庞大的指令集,我可以回答任何用中文对我提出的问题。但身为操作员的我,并不懂中文。我整天操纵符号,但我并不知道这些符号的意思。

在中文屋论证思想实验里,房间里的人按照指示操作符号。这骗过了一个以中文为母语的人,让他认为房间里的人懂中文。

瑟尔认为,这正是计算机内部发生的情况。无论iCub一类的程序显得多么聪明,都只是在按照指令集输出答案,它操纵符号,却并不真正理解这是在干什么。

搜索引擎也是如此。你向搜索引擎发送查询请求,它并不理解你的问题,也不理解它自己给出的答案:它只是围绕逻辑门里的0和1运作,最终返给你0和1构成的答案。还有“谷歌翻译”,它是一款令人大开眼界的程序,我可以用斯瓦希里语说一句话,它能向我传回匈牙利语的译文,但这靠的全是算法。这无非是符号的操作,就像中文屋里的那个人一样。“谷歌翻译”对句子完全不理解,对它来说,句子没有任何意义。

中文屋论证思想实验表明,我们开发了模拟人类智能的计算机,可它们并不真的理解自己在说什么。它们所做的任何事情,都不具备意义。瑟尔用这一思想实验指出,如果我们单纯让数字计算机去模拟人类大脑,关于人脑的有些事情会找不出解释。没有意义的符号和我们的意识体验之间存在着一道鸿沟。

围绕中文屋论证思想实验如何阐释,学界尚存在争论,但不管怎么分析说明,这一思想实验都暴露出,要想从物理零部件中制造出人类对世界的鲜活体验,是一件无比困难的事,也是一件无比神秘的事。每一次尝试模拟或创造类人智能,我们都要面对神经科学上一个核心的未解之谜:数十亿个简单的大脑神经元,怎样通过运作生成了“我存在”的丰富主观体验——疼痛的刺感、红色的鲜艳、葡萄的味道?毕竟,大脑细胞也无非是细胞,它们按照局部规则执行基础的操作。究其本身,它做不了太多事情。那么,这数十亿个细胞累加起来怎么就变成了“我之为我”的主观体验了呢?

计算机 / 思考

如涉及版权,请著作权人与本网站联系,删除或支付费用事宜。

0000