人类 vs 人工智能(机器)
人类在政治和经济上的用途会被机器人大量替代,人类的世俗价值正在急速衰减。社会系统认为人类集体有其价值,但大部分人类个体则再无价值,变成无用阶级(没关系,人类DNA中也有海量的“垃圾”信息,既然自然选择留下了这些DNA片段,那说明还是有一些我们看不到的意义),只有极少数人类精英阶层会有独特价值。
只需要短短几秒,精密策划的网络攻击就可以让全美网络断电、破坏航空管制系统、造成核电厂和化学工厂大量事故、干扰警察、军队和情报通信网络,甚至抹除所有金融记录,让数万亿美元消失无踪,没有人知道究竟谁拥有什么。
对于军队和企业来说,智能是必要的,但意识可有可无。所以前线的军事战斗只需搭载了伦理算法的无人机和机器人,他们应该不会获得意识或者情绪。人类科技正在飞速发展,达到超级智能指日可待。除了传统的生产制造和战争等依靠人类“身体能力”的工作之外,股票、金融、医生、律师、音乐作曲等绝大部分依靠人类“认知能力”的工作都也会被替代,EMI模仿巴赫谱曲的音乐已经在盲测中表现超过了巴赫。
生物算法和计算机算法在本质上没有区别。但受到有机体的限制,人类无法24小时连续保持理智和清醒,机器却可以,而且这些超级智能不需要意识和情绪就能胜任任何以“模式识别和算法”为基础的工作。
有人认为情绪和意识是人类的优势,是创造力的源泉,但需要这种创造力的工作会越来越少,只有1%,对于大部分经济和政治事务来讲,情绪是多余的,甚至是可怕的。人类智能经常会受到情绪的影响而表现失常或者反常。
到2033年,可能只有考古学家这样的差事不会被机器人及算法替代,主要不是因为机器做不到,而是没有人愿意为这个投入产出性价比极地的工种写算法。可悲的人类,想要不被淘汰成为无用阶级,只能不断学习,打造全新的自己。不过,绝大部分人都做不到。
机器智能超越人类智能后,会不会消灭人类?有可能,虽然机器算法的设计“目的”并不是消灭人类,但是在完成其设定目标的过程中,如果人类阻止它(比如拔掉电源),它就会调动所有智能消灭人类,只为了实现自人类给他设置的那个初始目标,而这个目标就是机器人活着的意义(如果它有意识的话)。
当万物互联,当所有的数据都上网,机器算法决策就会超过人类自身,人类的大部分决策都会由机器代替完成(包括一些不知不觉潜移默化被引导的,表面上由人类自己拍板的决策)。而黑客的攻击也从电脑挟制进化到了控制人体内的纳米机器人。
细思极恐,一觉醒来,你的身体已经被某个黑客接管了,更可悲的是,你却对此一无所知,你还是按照自己的欲望行事,只不过你的欲望强烈以及什么时候激活,是由远在世界另一个角落的某个12岁小黑客操控的。
未来会有极少部分精英群体用生物科技和人工智能武装自己,延长寿命,永葆青春。过去社会医疗保障人人平等,但平等的是基本的健康需求。而明天,精英们花大价钱购买的是“升级”,记忆力增强、智力提升、性能力加强等。这本来就是不平等的,不会在医保的范畴。过去的平民医疗保障还有一个前提是军事和经济需要大量的平民贡献献身,而明天他们的工作都被没有意识的超级智能机器人替代了,精英们只需要升级自己就足够了。如果巴西想要超过日本,不再是靠几百万健康的工人,而是需要升级少数几个精英,把他们变成超人类。
当身体、情感和智力都远超常人的超人类诞生,自由主义的信仰又如何能生存,如果这个超人类小群体的体验和我们常人智人完全不同,那么该如何选择。认知鸿沟是天堑,难以跨越。就像蚂蚁永远无法理解人类一样,超人看待一般人,可能就像我们看蚂蚁,或者19世纪的欧洲人看待当时的非洲奴隶一样。
意识的海洋
科技宗教带来了“科技人文主义”和“数据主义”两个方向。
科技人文主义认为今天的智人马上就要成为历史,我们要用科技创造出“神人”超人类,一种更优秀的人类形式。神人保留一些基本人类特征,但同时拥有升级后的身体和心理能力,并且能够对抗复杂的无意识智能(算法)。因为无意识的智能正在飞速发展,所以人类如果不想集体沦陷,只能积极升级“心智”。
七万年前的第一次认知革命,人类DNA有了一点点小的变化,大脑神经稍微调整了一下结构,我们就主导了地球。第二次认知革命可能会让神人接触到目前还难以想象的新领域,让神人成为太阳系的主人。
上一次升级,我们弱化了嗅觉、视觉、听觉甚至注意力等能力,提升了智力;这次认知升级的过程,也有可能会继续弱化很多能力,比如专注力“头盔”用多了,一旦摘下头盔,我们就会失去容忍各种疑惑和矛盾的能力。如果社会系统希望我们下定决心,而不是心存怀疑,那就会推动我们往这个方向前行。改造心智的过程,升级了一部分,降级了另一部分。农民都知道,羊群里最聪明的那个常常会惹出大麻烦,所以农业革命的一点就是降低动物的心理能力。所以科技人文主义推动的第二次认知革命,可能对人类造成类似的效果,会让社会大机器里面的“人类小齿轮”沟通和处理数据的效率更高,但几乎不会去注意其他事情,不会做梦,也不会怀疑。过去几百万年,人类是升级版的黑猩猩,到了未来,人类可能变成放大版的“蚂蚁”,个体价值不再重要,集体社会活动才更有价值。
听起来很可怕,我宁愿保持现状而不去升级成什么神人,成为未来社会系统中的一个超级螺丝钉。可那也由不得我,我也可能等不到那天,社会升级是循序渐进的,我们感觉不到这种身体机能在进化中退化;而且,农业社会和狩猎社会相比,我们的社会系统确实更强大了,个人能力却真实弱化了。未来也一样,强化整体,弱化个体。
黑猩猩也说:“我才不要进化成为人类呢,手无爬树之力。在我生活的丛林里,人类个体毫无生存能力,弱爆了。还是做猩猩好,想吃就吃,想睡就睡,想搞母猩猩就搞,那里那么多限制,什么一夫一妻制,狗屁!”
不管什么物种,它们的意识总是会让它们安于当下的一切,恐惧改变,哪怕是升级也是伴随着一部分生理机能的退化,“损失厌恶心理”让所有的物种都觉得:现在最好,此刻最好。
进化本来就不是变得更强大更宏伟,而是变得更适应。
数据主义认为,宇宙由数据流组成,任何现象或实体的价值就在于对数据处理的贡献。音乐、股市、文学、经济、政治,蚁群、蜂群、菌群背后都是数据流的不同模式,都可以用算法来分析决策。以前我们要把数据转化为信息,信息转化为知识,知识转化为智能。而今天,数据量太大了,人类已经无法直接处理海量数据并形成信息,于是计算机算法接管了数据处理的工作,而之后得出的的信息、知识,也就随之成了计算机算法的收获,成了计算机的智能。
共产主义本质上是一种市场信息集中处理的政治算法系统,统一资源配置、统一商品定价、统一规划社会经济活动的一切;自由市场资本主义是分布式信息处理的算法系统。资本主义能够赢得冷战,是因为分布式数据处理的效果就是比集中式处理更符合当今这个时代。
政治科学家开始把人类政治结构理解成数据处理系统,民主和专制在本质上是两套关于收集和分析数据(信息)的对立机制。而这种政治算法系统正在失去对数据的控制,科技发展太快,政治系统升级太慢,权力出现了真空。即便是互联网星期之后的若干年,各国政府开始意识到这个科技成果对社会和政治格局的影响力已经大到失控的地步,他们开始通过各项政策法规监控数据,管理数据,几乎拿到了所有的数据,但这依然于事无补。就像打牌的时候明明知道对手有什么牌,却不知道怎么搞的,总是一输再输。本质上,这是现有政治体系数据处理能力的欠缺。
未来还有很多新的科技会飞速发展,挑战政治体系,尤其是人工智能和生物科技,但现在的政治体系对此毫无警觉。选民和政要对生物学、控制论、信息论的认知不足成了巨大的瓶颈。民主机制已经不能给选民带来权力,权力正在转移,但不知道去哪儿了。英国选民想象中,是欧盟夺走了权力,所以他们脱欧;美国选民认为既得利益者垄断了权力,所以他们支持反体制的候选人。可事实上,即便英国脱欧,特朗普当选,权力也不会回到普通选民的身上。
科技有了神一般的能力,而政治却依然短视而无知,这样的搭配问题很大。纳粹和原子弹爆炸的历史告诉我们,权力不能交给狂妄自大却无知的政治人物,那是一种灾难。而权力也不能完全交给市场,因为自由市场算法也不是万能的,有时候反而是盲目的,在面对全球变暖的威胁或者人工智能的潜在危险时,市场可能毫无作为。
当万物互联,所有数据都开放上网的时候,算法不仅能知道每个人的投票意向,甚至还能从根本的神经原因分析为何某人投民主党,另一个人投共和党时,又何必举行什么民主投票呢?过去的人文主义呼吁:“聆听自己内心的声音”;而现在的数据主义则呼吁:“聆听算法的意见!”
随着机器学习和人工神经网络星期,有越来越多算法会独立演进、自我改进、从自己的错误中学习。最早的种子算法是人类设计开发的,但随着算法逐渐发展,就会走出自己的路,前往人类未曾踏足的领地,而人类也无力追寻。
但是,没有人真正知道2050年的就业市场、家庭或者生态将会是什么样子,又或是哪些宗教、经济和政治制度主导世界。这个世界的变化速度比以往更快,而我们又已被海量数据、想法、承诺和威胁所淹没。人类正在逐渐将手中的权利交给自由市场、群众智能和外部算法,部分原因就在于人类无力处理大量数据。
我们无法真正预测未来,因为科技并不会带来确定的结果。
至少我们有一点可以明确,未来,本质上就是不确定的。
不过,细思极恐!
文中提到的几个有趣的小实验和小故事:
倭猩猩的社交
倭猩猩常常用性行为来纾解压力,建立社会联结。所以并不意外,他们之间同性行为也是稀松平常。如果俩群互相不认识的倭猩猩喷到一起,一开始会表现出恐惧和敌意,但是很快其中一群的雌性倭猩猩就会走出来,邀请陌生的倭猩猩别打了,来嘿咻吧。通常另一方都会接受这项邀请,不到几分钟,原本可能的战场就成了欢场,倭猩猩用各种姿势性交,甚至还会倒吊在树上。
智人同样很了解这些合作技巧,但是不管打斗还是交配,只靠个人认知仍无法构成大规模合作的基础。想解决希腊债务危机,办法绝不可能是邀请希腊政治家和德国银行家来打一架或者是云雨一番。
最后通牒博弈
两人分一笔总量固定的钱,比如100元。一人提出方案,另外一人表决。如果表决的人同意,那么就按提出的方案来分;如果不同意的话,两人将一无所得。
A在提方案时要猜测B的反应,此时理性的A所提出的方案应该是留给B一点点比如1元,而自己得99元。B接收了能得到一分钱,如果拒绝什么都得不到。这是根据“理性人”的假定的结果,而实际则不是这个结果。
真实的案例反映出:提方案者倾向于50:50的方案;而接受者倾向于:少于30%拒绝,多于30%接收。拒绝的理由是“不公平”,人们宁愿不拿这1元,也不想看起来像个傻瓜。类似的实验在卷尾猴身上也做过,结果一样,猴子也有“不公平”意识,会嫉妒,会因为不公平而发怒,放弃相对较小的既得利益。
智人的行为方式并不是冷冰冰的数学逻辑,而是有温度的社交逻辑,我们或多或少受情感的控制。这背后的进化逻辑也很简单。虽然说我接受了1元,总比什么都没有好,但是长期来讲我就永远拿1元了。如果我拒绝了,下次你就会给我更多了,否则你也一无所获。最终会趋向于一种分配平衡界限,比如7:3。
老鼠的希望
制药公司经常做的一个实验,需要取100只大鼠,分别放进装满水的玻璃管内。这些大鼠会一次又一次努力想爬出玻璃管,但是都无法成功。经过15分钟之后,大多数会放弃努力,之时漂在罐子里,对周围的情况漠然置之。
接着,另外取100只大鼠,同样的实验,区别是在14分钟的时候,当他们快要绝望之时,把它们捞出来,擦干,给食物,让它们休息一下,然后再重新放回去罐子里。第二次,大鼠们都可以支撑20分钟才放弃。为什么多了6分钟?
因为过去曾有过成功的记忆,触动大脑释放了某些化学物质,让大鼠感觉又有了希望,延迟了绝望的时间。
只要我们能够找到这种物质,应该就能找到人类的抗抑郁药物。