wxwx 发表于 2010-5-31 10:24:18

《谁会代替人类:智能简史》作者:雨果·德·加里斯

推荐序

    我和雨果·德·加里斯相识已久。近几年,我们常同时被邀请在国际未来思考者的聚会上演讲。我们都认为,21世纪晚期,人类将不得不面临被一个新物种,即由超级智慧人工大脑控制的超级智能机器人所取代。德·加里斯和我不同的是,(使用他的术语)他基本上是一个“宇宙主义者”(“Cosmist”,即那些认为应该制造“神一样的超级智能机器”而不考虑人类未来生存是否有危险的一类人)。我认为,德·加里斯会把我归类于“地球主义者”(“Terran”,即那些反对宇宙主义者去制造这样超级智能机器的一类人)。

    我记得,在一次国际会议上,他问我是宇宙主义者还是地球主义者。我说我可能更倾向于地球主义者。德·加里斯半开玩笑地说:“战争就此开始了!”他是指此书中提到的“人工智能战争”。他认为,在本世纪(即21世纪)晚期,将在宇宙主义者和地球主义者之间爆发一场关于人类是否应该制造那些神一样的“人工智能机器”的“大战”。

    事实上,我认为自己更倾向于一个“半机器主义者”(“Cyborgian”,是指那些期待用技术来改良自身成为“半机器人”的人,也就是说一半是机器,一半是人类)而不是“地球主义者”。我希望,通过改良自身,人类可以转化成半人工智能机器,获得德·加里斯所说的神一样的力量,从而不必承担“大战”的威胁,且还能分享一块蛋糕。在某种意义上,我在寻求一种折中方法——不是让超级智能人工大脑反对人类,而是我们加入它们。

    几年前,德·加里斯和我在瑞士的一个会议上做客座演讲。为了更加生动,德·加里斯让会议组织者给他一把玩具牛仔手枪,当我们做完演讲后,他半开玩笑地用这把枪向我“射击”(照片见本书文前彩插)。它的标题是“人工智能战争的第一次枪战”。我希望现实不会像这个游戏那样。德·加里斯对于21世纪晚期那场战争的场景预测,就是21世纪武器的使用造成了几十亿人的死亡,这是非常令人沮丧的。为了人类(和半机器主义者)的生存,我很坚定地希望他是错误的,绝对错误的。

    读完本书后,读者可能对我过于乐观的愿景能否实现深感怀疑。德·加里斯的推理令人恐惧,但不得不信服,即使我内心对他所说的很排斥。他在“人工大脑”这个新领域里是先驱者的事实,只会让他的见解更加可信。如果要说世界上有哪个人在预测高级人工大脑对于人类影响方面取得卓越成就的话,那么这个人就是德·加里斯。

    我相信本书将有深远的影响。几十年后,如果德·加里斯关于“物种主导问题将在本世纪主导全球政治”的言论被证实是正确的话,那么他将是21世纪最主要的思想家之一。对于德·加里斯我没有任何冒犯,我希望他被证实是错误的、夸张的和反应过度的。因为如果不是这样的话,他的预言就会在我们的儿孙辈成为事实,他所说的“大规模死亡”对于人类是一件太可怕的事情。

    不管你在宇宙主义者—地球主义者的观点范围中处于何种位置,这都是一本你不能也不应该忽视的书。它太重要了,太轰动了,不应该被草率地忽视。我建议你读它,然后再读一遍,试着找出逻辑和辩论上的漏洞,以便我们可以期待一个和平繁荣的21世纪。如果德·加里斯的见解是正确的话,那个像电影《终结者》中描述的地狱般的梦魇将会成为事实。

    凯文·沃里克博士

    英格兰里丁大学控制论教授

第一部分 导言 智能简史 导言(1)

    我是雨果·德·加里斯教授,一个设计和制造“人工大脑”的研究机构的负责人。研究这个领域是我的专长。但我不仅是一个研究者和科学家,也是一个有着政治和伦理意识的社会评论家。我十分担心我的研究结果会在21世纪下半叶给地球上的人类带来我所恐惧的后果。

    你可能会问:“既然你对现在进行的工作可能会给人类带来的负面影响感到如此焦虑,为什么不干脆停下来去做点别的呢?”事实上,我认为我正建造着一个在未来几十年内,将会成为神一样无所不能的东西(虽然在我有生之年可能看不到它的完成)。制造神一般的生物的期望,带给我一种宗教般敬畏的感觉,这感觉进入我的灵魂深处,强烈地激发我继续这项工作,尽管那些可怕的负面效应可能会接踵而来。

    对此,我感觉似乎要精神分裂。一方面,我的确非常想制造这些人工大脑,并尽可能将它们制造得极其聪明。我把这当作人类追求的一个伟大目标,我将会在后面的章节里,对这个问题进行深入的讨论。另一方面,我又对人工大脑制造成功将产生的影响感到不寒而栗。因为这个成功同时也意味着人工大脑最终会比我们生物大脑智慧很多倍。这一点,我也同样会在本书后面的章节里进行深入的讨论。

    具体说,作为一个职业的人工大脑制造研究者和曾经的理论物理学家,我认为,对于21世纪科技所产生的“高智机器”的潜在能力,我比大多数人看得更清楚。所谓“高智”,是指比人类大脑智慧不止2倍或者10倍,而是万亿个万亿倍的人工大脑,也就是真正神一样的东西。如此巨大的数字对你来说,可能更像是科幻小说而不是任何可能的未来科学。在本书的第3章我将解释一些21世纪科技的一些基本原理,我相信这些科技将允许人类(如果人类选择这样做的话)来制造神一样的机器。我会让你相信,这不是科幻小说,因为它有着充分的理由迫使你相信这些令人毛骨悚然的巨大数字。我将尽可能地用一种简单清晰的方式来陈述,以便人们不需要成为一个“火箭科学家(rocketscientist)”(美国人的说法,意思是“一个非常聪明的人”)就能够理解它们。这些基本概念可以被任何人所理解,只要他们愿意对这个研究花上一点精力。

    第3章将介绍一些难以置信的科技,它们使制造神一样无所不能的高度智能机器成为可能。你将接触到许多伦理、哲学和政治问题。因为人类制造这些高智能机器的前景会引发一些非常重要的问题。本书将从各个角度讨论这些问题,我不会装作知晓所有的答案,但我会尽我所能。

    在现代历史上,“摩尔定律”一直是一个伟大的科技经济趋势,它描述并解释集成电路或者芯片的运算能力(例如,电子元件密度、电子信号处理速度,等等)每年都成两倍增加。这个趋势自从英特尔微处理器制造公司创始人之一戈登·摩尔1965年提出以后,经验证一直是正确的。如果你把一个数一直乘以2很多次,你会得出一个非常巨大的数字。举个例子,2乘以2乘以2乘以2……(10次)等于1024。如果你这样乘20次会得到1048576,也就是大概100万。如果你这样乘30次,你会得到10亿,乘40次会得到万亿,等等。摩尔定律在过去的40年一直是有效的,以至于倍数增加得到的数字非常巨大。我称之为“巨大的摩尔倍增”。

    摩尔定律是芯片上电路尺寸不断缩小的结果,以至于电子(一种基本粒子,它在电路中的流动形成电流)在电子元件(例如两个晶体管)间传递的距离被缩短了。根据爱因斯坦的理论,物体可以移动的最快速度是光速(大概300000千米/秒),并且这也是电流必须遵守的自然常量。如果两个电子元件间的距离被缩短了,它们之间电子信号的传递距离也将缩短,因此,通过这个距离所需要的时间就会更少(以恒定的光速)。

    芯片制作公司在过去几十年里投入了巨大的精力来使电路变得更小,使之分布得更加密集,以便让它们运行得更快。微处理芯片运行越快,就会越经济。如果你是加州“硅谷”中一家制造芯片公司的CEO,而你的竞争对手比你早6个月在市场上推出一款比你(的产品)快30%的芯片,那么你的公司可能会破产,而竞争对手的市场份额会大幅增长,因为每个人都想拥有一台更快的计算机。因此,在过去的几十年,电子线路变得更小更快。

第一部分 导言 智能简史 导言(2)

    摩尔定律还能够保持多长时间的有效性呢?如果一直有效到2020年,海量内存芯片上电路尺寸可能允许在一个原子上面存储一个比特(一个“比特”是一个“二进制数字”,一个“0”或者一个“1”,是计算机进行运算所代表的数字和符号)的信息。那么,一个这样等量级的物体,比如说苹果,包含多少个原子(即苹果这么大的存储器可以存储多少比特)呢?答案是令人吃惊的,有万亿万亿个原子(比特),就是说,1后面跟24个零。

    你现在是不是慢慢开始了解,为什么我如此相信21世纪晚期高度智能机器会比人聪明万亿个万亿倍。

    21世纪科技不仅将会在一个原子上存储一个比特的信息,今后还会采用一种新的名为“量子计算”的计算方式。这种新的计算方式和人类20世纪所通用的“传统计算”完全不同。第3章将试着大致介绍一下量子计算原理,因为在不远的将来,它极有可能成为计算机的基础。

    在这里先跟大家简单介绍量子计算的一些基本特征。如果用一串N比特(在计算机科学里称作一个“寄存器”,例如,001011101111010)进行某种计算操作(先不管目前进行何种的操作),用“传统计算”会需要一定量的时间。然而在同样的时间里,采用“量子计算”技术,可以进行2N这样的运算。当N变得很大时,2N变得令人惊讶的巨大。因此,量子计算的潜能是极大优越于传统计算的。既然摩尔定律很可能带我们进入原子等级,在这个范围里,“量子力学”这个物理规则将会被应用,人类将必须用量子理论进行量子计算。因此,在过去一些年里,理论研究和试验上人们都投入了巨大的努力,以理解和制造“量子计算机”。

    在量子计算机推向大众之前,量子计算仍然有很多概念和运用上的困难有待解决。但是面对这些困难,每个月都有进步,所以我相信,拥有实用的量子计算机只是时间上的问题。

    如果把每原子存储1比特的记忆存储能力和量子计算方式结合起来,其组合能力是“爆炸性”的。21世纪计算机可能拥有的潜在计算能力会比现在计算机的能力高万亿万亿个万亿倍。

    说到这里,希望我所讲的你们都能理解。

    论述到现在,你们的理解可能比我所讲的更超前,并且会反对我,因为我似乎在暗示,大规模存储能力和惊人的运算能力就足以产生高智能机器,其他的什么都不需要。我也因为这一点而被我的某些同事指责,所以请先让我陈述一下对于这个问题的一些观点。

    有些人(例如,因黑洞理论闻名的罗杰·彭罗斯爵士以及他的主要竞争对手英国宇宙学家斯蒂芬·霍金)认为要产生智能机器需要的远不止是大规模的计算能力。彭罗斯声称意识也是必要的,并且认为需要新的物理知识来理解自然中意识如何产生,并借此来创造机器人工意识。

    我并不介意这些反对的声音,又或许这样的批评是对的。但即使这样,他们的反对也无法改变我的基本论题,因为这也许只是延迟几十年,直到意识的本质被更好地理解。我认为,要理解自然是怎样创造我们的,只是一个时间问题。也就是说,我预计科学会逐渐理解“胚胎发育”的过程,这是从一个受精卵细胞到包含万亿个细胞的胚胎然后形成一个婴儿的过程。

    我们自己,既有智慧又有意识,就是一个存在的证据,即证明自然界可以以一种适合的方式排列大分子来制造我们。当一个孕妇进食后,她所摄取食物里面的一些大分子会被重新组合,然后自己去组合包含万亿万亿个原子的大分子结构,就是她的婴儿。婴儿就是由于大分子的自我排列组合而形成的一个有效的三维的并且有意识和智慧的生物。

    自然界通过进化已经找到了一种解决这一问题的方法,所以这个问题是可以解决的。如果科学家想制造有智慧有意识的机器,一个显而易见的办法就是通过尽可能地复制自然界创造意识的途径来实现。或迟或早,科学会产生一种和人类一样运作的人工生命形式。

第一部分 导言 智能简史 导言(3)

    同样,如果科学对于生物大脑的工作原理有更深入的了解,那么制造人工大脑将变得更加容易。尽管过去一个世纪甚至在更长时间里,神经科学家们投入了大量的精力来试图理解人类大脑工作的基本原理。但不幸的是,当代神经科学对于人类大脑工作原理的了解仍然十分有限。迄今为止,在神经元微电路层次上,对于神经电路怎样高度联系以实现大脑工作方面的了解还是很少。科学家们依然缺少用于仔细研究大脑结构的工具。

    然而,随着科技进步人们可以制造越来越小的设备——从微米级达到纳米级。比如说,当设备从百万分之一米(细菌的大小)变得只有十亿分之一米(分子的大小)的时候,制造分子级机器人来探索大脑如何工作将成为可能。

    关于生物大脑工作原理的科学知识到现在之所以还非常有限,正是由于我们现在使用的工具非常有限。但是,随着分子级工具(称作纳米科技)的出现,神经学家将会有一套强有力的崭新工具用来探索生物大脑,该领域的研究也会取得很快的进展。

    像我这样的人工大脑制作者将会利用这些新创建的神经科学原理,迅速地把它们应用到人工大脑结构上。

    可能不久人们便会破解很多生物大脑的工作原理,从而将会产生一种能够在神经元电路基础上解释的——如为什么爱因斯坦的大脑会比绝大多数人聪明很多的“智能理论”。这样的智能理论一旦存在,对于像我这样的神经工程师来说,就可以用一种更工程化的方法来制造大脑。我们将不必去做“神经科学的奴隶”。我们可以使用一种替代方式来制造人工智能机器(虽然一开始是基于神经科学原理的)。

    当拥有了纳米科技工具提供的崭新的神经科学知识,量子计算以及一个原子存储一个比特所允许的惊人的计算能力,像我这样的人工大脑制造者才可能具备制造真正有意识的人工智能机器所需的所有要素。

    现在有很多问题被提出,我将在本书大部分章节里试着解答它们。让我们把目光投向未来,想象一下上述的科技将怎样影响我们普通人的生活。

    很快,购买人工大脑控制机器人来做家务将变为现实。如果这些机器人的价格变得可以承受,那么对于它们的需求将变得非常巨大。我相信,不久,世界经济将依靠这些基于人工大脑的计算机。这样的设备将变得非常有用和流行,以至于地球上的每一个人都想拥有。随着科技和经济的进步,这种设备在全球市场将会快速增长以至于地球上的大多数政治家都会支持它。不仅商务公司会热衷于制造更聪明更有用的机器人和基于人工大脑的各种设备,就连各国军事领域也将广泛采用这种技术。

    在未来几十年,地球将真正形成一个全球性国家,但有全球性的警察维护全球性的法律这种可能性是很小的。相反,我认为在下半个世纪为成为世界上最强大国家而产生的政治对立将白热化。这样就会使处于敌对状态的国家不允许对方研发出更聪明的机器士兵和其他基于人工大脑的国防系统。因此,国家政府将会加强为军方服务的人工大脑研究的发展,这将不限于商务应用,就像一个世纪以来其他技术的发展模式一样。

    所以,人工大脑的机器人和相应领域的崛起,看起来是不可阻挡的。要阻挡商业及军方的推动力是很难想象的,除非某种大规模的政治运动才可以阻止它。

    如何才能引发这样的运动?

    试想几十年以后,几百万人都买了家务机器人、性机器人、教学机器人、育儿机器人、伴侣机器人、友谊机器人,等等,并且这些人工大脑控制机器人可以很好地理解人类语言并与人类交谈。一些年之后会发生什么呢?毫无疑问,早年那些型号的机器人会因为是老式的而变得没有吸引力。新型号机器人因为有更高质量的语言能力而被认为是更“智能的”。它们会更好地理解并与人类沟通。它们的行动指令会更丰富。一句话,它们会很快替代早期型号的机器人。

第一部分 导言 智能简史 导言(4)

    那么大家会怎样呢?当然,他们会丢弃老式机器人去买新型的,或者把他们的老式机器人进行人工神经元电路升级。之后,这样的过程将反复出现,就像20世纪80年代至90年代人们购买个人电脑那样。

    然而,有些爱思考的购买者会发现一代一代的家用机器和机器人变得越来越聪明,并且机器人和人类智商的差异越来越小。当机器人真的变得非常聪明后,几百万的机器人拥有者会开始问自己一些有趣的问题。诸如:

    “这些人工大脑机器人会变得多聪明呢?”

    “它们会变得和人类一样聪明吗?”

    “如果可能,那是一件好事吗?”

    “这些机器人会变得足够聪明而成为人类的威胁吗?”

    “这些机器人会比人类聪明吗?”

    “如果能够,会聪明多少呢?”

    “人类应不应该允许这些机器人比人类聪明呢?”

    “当它们变得比人类聪明时,它们会认为人类是地球上的瘟疫或癌症而把人类灭绝吗?”

    “人类应该为这些可能发生的事情冒险吗?”

    “机器人人工智商需要设置一个限制吗,使机器人足够聪明从而有利于人类但不至于成为人类的威胁?”

    “政治上、军事上、经济上有阻碍机器人逐年变得更聪明的可能性吗?”

    “有很多人认为,制造超智能机器是人类的使命。这些人不喜欢对人工智商设置任何限制。这会在人类间产生冲突吗?”

    随着人工智能机器的出现以及制造更强能力的人工大脑,会出现更多诸如此类的问题。

    我又是怎样看待人类应对人工智能机器的出现所面临的挑战呢?我将会陈述我认为最有可能发生的状况。在这之前,先给大家介绍一个本书中经常用到的新术语,它是表达“神一样超级智能机器”的缩写。这个新术语是“artilect”(人工智能机器),它是“artificialintellect”的缩写,是本书中最重要的概念和术语。

    我相信,人工智能机器在21世纪将成为主导问题——具体指人类是否应该制造比人类智能高出万亿个万亿倍的人工智能机器,也就是说,拥有神一样智慧的机器。我预言人类将分裂成两大主要政治集团,并且会随着人工智能机器逐渐变为现实而使得他们之间的斗争更加激烈。

    支持制造人工智能机器的集团,我称之为“宇宙主义者”(Cosmist),是基于“cosmos”(宇宙)一词。对于宇宙主义者,制造人工智能机器就像宗教中人类的使命;是真正伟大和值得崇拜的;是值得人们用尽一生的精力来实现的。对于宇宙主义者,不去制造人工智能机器,不去创造更高的进化形式,而停留在人类这样微不足道的形式上,是“宇宙大悲剧”。宇宙主义者会强烈反对任何试图阻碍21世纪人工智能机器产生的行为。

    强烈反对制造人工智能机器的集团,我称之为“地球主义者”(Terran),是基于“terra”(地球)一词,反映了他们内在的非宇宙主义的看法。我坚信,地球主义者会争论说,允许制造人工智能机器(以非常高级的形式)意味着接受一个冒险——那就是某一天,人工智能机器会认为,无论从什么样的角度来说,人类都是一种瘟疫或有害物。而人工智能机器的智能已远远超过人类,那么对人工智能机器来说,如果它们决定把人类灭绝将是很容易的。

    但是你可能会辩论说,如果人工智能机器真的非常聪明,那么它们会认为人类赋予了它们生命,人类就是它们的父母。因此,人工智能机器会尊重我们,并且对我们很友好。这样的情况可能会发生,但问题是,你无法保证人工智能机器们会像我们期望的那样对待我们。

    不要忘记,人工智能机器可能比我们聪明万亿个万亿倍,由于它们是如此的聪明以至于人类对于它们来说是低等甚至是不值一提的,以至于人类存在与否对于它们来说没有任何不同。

    毫不夸张地说,人工智能机器们试图和人类交流,就像人类想要和石头说话。

第一部分 导言 智能简史 导言(5)

    换一个比方,考虑一下你对一只停在小臂皮肤上的蚊子的感受。当你打死它的时候,你会停下来想,你刚杀死的小生命是纳米科技工程的杰作,是20世纪科学家根本没有办法制造的吗?蚊子拥有几十亿个细胞,每一个细胞都可以看作一种大分子城市,细胞里的每一个分子就像城市里的人一样。大分子相对于细胞的大小就像人相对于城市一样。

    尽管蚊子是经过几十亿年进化的极其复杂和不可思议的生物,我们人类根本就不会考虑这些而轻易杀死它们,因为我们从来都只是把它们看成是一种有害生物。当我们漫步在森林里踩死一只蚂蚁,或者把蜘蛛冲到下水道里的时候,我们都会有同样的态度。

    谁又会说那些人工智能机器们不会对我们有同样的看法而消灭我们呢?拥有超级的“人造”智慧,做这些事情对它们来说是小菜一碟。

    对于地球主义者,这场辩论中最重要的词汇是“风险”。地球主义者争论说,人类从来就不该冒任何风险,比如像制造高级形式的人工智能机器可能会导致人类灭亡这样的风险。唯一让风险降为零的保险办法,就是永远不要制造人工智能机器。

    关键时候,如果地球主义者发现宇宙主义者真的要制造高级人工智能机器时,地球主义者可能会为了保证人类的生存而去消灭宇宙主义者。他们会认为,为了保护整个人类,而杀死几百万宇宙主义者是可以接受的。

    地球主义者们有理由认为这样的牺牲是合理的。举一个历史上类似的例子——在二次世界大战的末期,斯大林的军队为了占领柏林和摧毁杀害了2000万俄国人的希特勒纳粹政权,为了夺取纳粹占领的每一个欧洲城市,付出100000俄国士兵伤亡的代价。对于斯大林来说,这样的牺牲是合理的,因为可以得到非常大的好处,那就是让俄国人从纳粹大屠杀的恐惧中解救出来。

    你可能会问:“真的会有人头脑清醒地选择做一个真正的宇宙主义者,冒着整个人类可能被灭绝的风险吗?”

    相信在未来,几百万人将会对这个问题给以肯定答案。我觉得,当更多的人意识到人工智能机器的发展前景,他们最终会支持人工智能机器的制造。本书将会用一个章节,以宇宙主义者的视角来论述为什么要支持制造人工智能机器。

    这些人,即宇宙主义者,将会给这些生命(一个人工智能机器等价于一万亿万亿个人类)的制造以更高的优先级别,因为它们是神一样的、永恒的、无所不能的,反而不会去理会人类可能被人工智能机器灭绝的风险。

    让我重新解释一下,以便没有人再对宇宙主义者的理念有疑问。宇宙主义者,定义为支持制造人工智能机器的人。人工智能机器如果被制造出来,它们迟早会发现人类是如此的低等,像一个有害物,从而决定来灭绝我们,不论以什么样的理由。因此,宇宙主义者已经准备接受人类被灭绝的风险。如果人类被灭绝,那意味着你我的后代也被消灭。那将是人类历史上最大的灾难,因为再也没有历史了,再也没有人类了。人类也将成为地球上曾经存在但已灭绝的那99%的物种之一。

    因此,对于地球主义者而言,宇宙主义者是魔鬼附身,比希特勒、日本帝国主义或者其他任何杀害亿万人类的政权都坏得多,因为受害的范围将大得多。现在我们谈论的不是几百万人的屠杀,而是整个人类,即几十亿人的灭绝。

    但是对于宇宙主义者来说,在这个无关紧要的小行星上谈论人类生存与否是微不足道的。因为这个行星围绕的恒星也只是我们这个星系上约2000亿个恒星中微不足道的一颗,已知宇宙中同样的星系也有这么多(也是以10亿计算的),并且在这个多元宇宙中可能还有很多其他宇宙(根据一些最近的宇宙理论)。我称他们为“宇宙主义者”也正是基于他们的看法是宇宙范围的。他们更注重“大局”,意思就是说,在一个无关紧要的小行星上,灭绝超原始的、非人工智能的物种(也就是人类),对于人工智能机器的“上帝”来说是不重要的。

第一部分 导言 智能简史 导言(6)

    本书将会用两章来陈述地球主义者和宇宙主义者各自的观点。他们双方的论证都很有说服力,意味着他们之间不可避免的冲突将会随着未来几十年人工智能辩论的白热化而更加敌对。

    我对未来潜在冲突的激烈程度感到担心,对这两种观点(地球主义者/宇宙主义者)支持的人数将不相上下。举个例子,当我对关于宇宙主义者/地球主义者/人工智能机器的情景进行讲座的时候,我经常请听众对他们自己是地球主义者或者宇宙主义者进行投票。我发现投票的结果不是我以前所预计的(10%是宇宙主义者,90%是地球主义者),而竟然是50︰50,60︰40,40︰60。人们对这个问题的看法分成了对立的两派。

    让我更沮丧的是,人工智能问题在21世纪将会非常热门。基本上可以肯定地说,在这个问题上的观点分歧会在21世纪后半段在地球主义者和宇宙主义者之间引发一场大战。如果你把从19世纪初期(拿破仑战争)到21世纪末期的历次重大战争的死亡数字列举在图表上的话,你会发现,这场战争带来的死亡数字可能是令人沮丧的几十亿,就是我所说的“大规模死亡”。

    地球上的人口数量只是几十亿而已,因此,我们得到了一个悲剧性的结论,那就是为了避免人类被人工智能机器种族灭绝,人类不得不进行内部的战争,并且(或基本上)杀完自己。

    这场我所谓的“人工智能战争”将会是历史上最波澜壮阔的,因为从来都没有如此高的赌注,那就是整个人类的生存。战争将用21世纪的武器进行,因此伤亡数字也将是21世纪的数量级。

    悲哀的是,对于这个令人沮丧的情形,尽管我尽了很多的个人努力仍然无法找到脱离困境的办法。我夜不能寐,试图找到可以避免“大规模死亡”的现实办法。我没有成功,这让我感到非常的悲哀。事实上,我是如此的悲观,以至于我很高兴我现在还活着,至少我会寿终正寝。但是我很为我的后代担心,他们可能正好处于这样的恐怖时代,而且随时有可能会被毁灭。

    对我这样的年纪来说,我可能会在30~40年后死去,这段时间可能看不到人工智能战争——这个潘多拉盒子的开启。我认为,可能需要更长的时间来让人们掌握那些制造超智能的人工大脑或者人工智能机器所必要的知识。然而,我这辈子可以看到的也就是围绕本书所提出的人工智能问题展开的激烈争论。

    越来越多像我一样的研究者和教授们开始意识到这个问题,他们在媒体或书本上向大众声称21世纪将会看到超级人工智能机器的出现。但是至今我是唯一一个预言超级人工智能会带来大战的人,也就是所谓的“人工智能的战争”。

    因此,这个观点开始引起世界媒体的注意,像美国、英国、法国和荷兰都开始关注这个问题。事实上我认为,几年之后,这些问题就会脱离学术范围的局限,而逐渐被普通大众接受,引起政治、宗教、国防等领域的关注。

    “人工智能的战争”看起来像科幻小说,是对未来的预言,好像多数人都不会太担心,但是随着机器变得越来越聪明,对此的恐惧将越来越深。

    那么我对这个问题的态度呢?我为什么要写这本书呢?在内心深处,我是一个宇宙主义者。我认为如果人类不制造人工智能机器,那么将是宇宙的悲剧。为了解释我为什么是宇宙主义者,先让我来讲一个小故事。

    试想一下,你是一个拥有神一样能力的ET(外星人),你30亿年前来到了地球。你观察那个时候地球生命的形式,发现它们还是处在非常原始的单细胞阶段。你挥舞一下手中的魔力小棍,改变了地球上所有细菌的DNA,以至于(根据某个论点)让它们永远都不能进化到多细胞生物。因此,永远都不会有植物、动物,没有人类,没有爱因斯坦,没有贝多芬第九交响曲。那不是灾难是什么?当多细胞生物出现在地球,无数的细菌将被它们吃掉。地球上多细胞生物的进化没有对细菌表示任何怜惜。

第一部分 导言 智能简史 导言(7)

    我希望你理解这个类比。如果我们制造人工智能机器导致人类最终被灭绝,拥有神一样智慧的机器人会创造出怎样的、类似贝多芬第九交响曲一样的奇迹呢?作为人类,我们太愚蠢了,以至于想象不出。我们是如此的低等以至于没有能力去鉴赏这些。就像让老鼠来研究爱因斯坦广义相对论一样,人类根本就不可能去理解,因为我们根本就不具备理解这些所必需的神经电路。

    但是你会问,如果我内心里是一个宇宙主义者,那我为什么写这本书呢?答案是,我不是100%的宇宙主义者。如果我是个纯粹的宇宙主义者,那么我将会安安静静地从事我的人工大脑制造研究,而不会去向公众敲响人工智能问题的警钟。当我临终之时,我会为我被认为是“人工大脑之父”而自豪,但是如果历史谴责我是“大规模死亡之父”的话,那么这个前景真的让我很害怕。我第二任妻子的母亲仍然对奥斯维辛集中营的纳粹生活非常后怕。我清楚大屠杀给人类情感上带来的阴影是会伴随人一辈子的。

    我写本书的目的是给出一个警告,我认为在宇宙主义者的工作发展到一定程度前,应该给予人类机会去选择停止他们的工作,如果那是大多数人的选择。我应该停止我的人工大脑研制工作吗?答案是否定的。我认为制造近于人类程度的人工智能机器是非常困难的事情,需要几十年的时间去解决。在未来30~40年内,机器人的人工智能将发展得足够高,而变得对人类非常有用。机器人将负责大多数的工作,它们会从事很多枯燥、肮脏和危险的工作。人类将会从这些工作中解脱出来,转而去从事更有回报的工作,去做更有趣的事情。

    现在停止人工大脑的研究是很不明智的。然而,当人工大脑真正开始变得聪明起来,并且非常迅速地变得非常聪明以至于(在处于一个“拐点”的时候)成为威胁时,人类就应该准备决定是否继续。在这个关系到整个人类生存与否的问题上做出正确的决定是非常重要的,而对人工智能问题的必要讨论则应该越早越好。在人工智能时代来临之前,应该有足够的时间去理解这个问题的复杂程度。

    在公开场合,我是地球主义者,我在试着警告大家。私底下,我又是一个宇宙主义者。就像我在本书中提到的,这个问题困扰着我,让我左右为难。当人工智能的辩论真正开始后,数十亿人将会和我有同样的感受。从地球主义者的视角看,作为一个宇宙主义者就像一个“种族怪物”一样(物种杀手),他会接受人类将被消灭的风险。这是这个形式的固有本质。是否要制造这些人工智能机器只有两个答案——制造或者不制造。决定制造它们的同时就是接受它们可能会把我们消灭的风险。另一方面,不去制造它们就是决定不去制造“神”,一种弑杀“神”的行为。从宇宙主义者的观点出发,地球主义者是“弑神怪物”。

    之前,有些人认为,通过把人类自己变成人工智能机器,可以化解宇宙主义者和地球主义者之间的冲突。我们可以给人类的头脑等加一些成分,使他们成为“半机器人”(半机器生命体,比如,一部分是人,一部分是机器)。我个人觉得这样的看法很幼稚,除非整个人类向人工智能人的转化是一样的快,然而这显然是不可能发生的。

    一颗糖粒大小的人工脑潜在的计算能力可能比人类大脑的计算能力要高几十亿倍。对于地球主义者来说,让这样的一个颗粒融入人脑而使之成为半机器人,是“伪装成人类的人工智能机器”。地球主义者会像对待人工智能机器一样仇恨半机器人,并且会把它们两者都消灭掉。有一个人类的外表,并不会让地球主义者觉得半机器人的威胁会减小。

    让我试着用一种更形象的方式来解释地球主义者对半机器人的憎恨,可能女性会比男性更有体会。举个例子,一个刚生了孩子的年轻母亲,决定把自己的孩子变成半机器人。她只需把“一颗糖粒”放在孩子的脑子里,就能把孩子变成人形的人工智能机器。“孩子”将只有万亿分之一思想是人的思维方式,其余的脑容量(也就是大脑的99.9999999999%)都是人工智能机器的思想(无论是什么)。结果,这个母亲“杀死”了她的孩子,因为它再也不是人类了。它只是“伪装成人类的人工智能机器”,是和她不同的。

第一部分 导言 智能简史 导言(8)

    因此对于我来说,选择半机器人不能解决宇宙主义者/地球主义者的冲突。任何轻举妄动,都可能加剧冲突,因为这会让地球主义者因难以区别人类和半机器人而更加偏执和多疑。

    过去的十年里,我一直比较骑墙和中立,一直用“一方面,另一方面”的方式来表达我的观点和解释两种看法,一边支持地球主义者,另一边又青睐宇宙主义者。经过一段时间,我的朋友开始指责我是“伪善者”。“德·加里斯,你指望人类在地球主义者与宇宙主义者之间进行选择,但是你自己都没有这样做。”“很公平,”我想,“那么我就选择吧。”在我内心深处,我是宇宙主义者,我将在讨论宇宙主义者观点的第4章陈述我支持宇宙主义者的感受和论据。在那一章我将说明为什么我和其他宇宙主义者会如此热情地支持制造人工智能机器,我们准备接受人类可能会灭绝的可怕威胁。

    在论述地球主义者观点的第5章,我将解释为什么地球主义者会觉得制造人工智能机器是一场灾难。

    在本书的第6章,我将展现给大家一个画面,那就是我怎样看待冲突的酝酿和可能产生的后果。

    现阶段,你们中的某些人可能很难想象,机器怎么可能比人类更有能力并且聪明几万亿个万亿倍。这看起来简直就像科幻小说,不会被人类认真对待。

    这类事情的发生已经不是第一次了。

    1933年,一个叫利奥·西拉特的匈牙利裔犹太物理学家,正在伦敦的一个旅馆里读报纸上关于著名新西兰物理学家、原子核发现者卢瑟福爵士演讲的报告。一个参加演讲的新闻记者询问卢瑟福是否相信那一天会到来——原子核里释放的不可思议的高能量被用于工业上。卢瑟福的著名回答是“妄想”,也就是“没门”、“不可能”、“废话”。西拉特对此表示怀疑,认为肯定有办法。

    当西拉特在伦敦街上漫步的时候,突然产生一个灵感。这年是1933年,发现中子的第二年。他意识到中子是一种非常好的子弹,它不会被原子核的电荷偏转出去,因为根据定义,中子没有电荷,它的名字也是因此而得。

    西拉特知道铀是化学元素表里最不稳定的核子。西拉特的办法是用中子轰击铀原子核使它变得不稳定,因此原子核可能会裂变成两个更小的原子核。而原子核越小其包含的中子越少,也就意味着裂变时有些中子会被发散出去从而去轰击其他的铀原子核。

    因此,西拉特是世界上第一个想到核链式反应的人。作为一个物理学家和爱因斯坦的同事朋友,他能够计算出,如果发生这样的链式反应大概可以释放多少能量。他知道两个原子核和发散出去的中子的质量之和将会小于原先的铀原子核和中子的质量之和。那么不见的质量跑到哪儿去了?

    他知道这些质量将会被转化成巨大的能量释放出去。一个西瓜大小的铀,经过链式反应释放出的能量有多大呢?经过计算,发现这个能量将足以毁掉整座城市。

    西拉特是一个犹太人,说德语,他读过希特勒慕尼黑暴动失败后在监狱里写的书——MeinKampf(《我的奋斗》),所以他知道希特勒对犹太人有一个“Endlosung”(“最终解决办法”),那就是,要把犹太人全部消灭。1933年,希特勒掌握了德国的大权。

    因此,西拉特不仅是世界上第一个想出核链式反应概念的人,也是第一个害怕希特勒首先“拥有核弹”的人。这个想法使他惊恐万分。德国在20世纪20年代是世界上物理学最先进的国家——拥有众多杰出的科学家,如爱因斯坦、普朗克、海森堡,等等。因此,西拉特觉得德国非常有可能成为世界上第一个拥有核弹的国家。

    他跑到美国华盛顿,开始向五角大楼坚持不懈地宣扬自己的观点。五角大楼那些人认为他是疯子。仅仅一颗炸弹就可以摧毁一座城市的概念让他们觉得荒谬之极。在20世纪30年代,威力最大的炸弹仅仅可以炸毁一个大型建筑物。

第一部分 导言 智能简史 导言(9)

    西拉特志在使美国成为世界上第一个发明出核弹的国家,但这个目标没有实现,所以他改变了策略。他找到当时住在美国的老朋友爱因斯坦。爱因斯坦马上就明白了这个理论,因为是爱因斯坦发现了这个理论的大部分内容,尤其是那个著名的、西拉特用来计算能量的公式E=mc2。由于爱因斯坦也是德国籍犹太人,所以他很了解希特勒搞到第一个核弹后可能带来的后果。

    西拉特让爱因斯坦在他起草的给美国富兰克林·D.罗斯福总统的信上签了名,总统批准了在几年内制造出核弹的“曼哈顿”工程。从西拉特最早产生的核链式反应的想法到后来的广岛大爆炸只有短短12年。

    我非常钦佩西拉特。我认为历史低估了他的作用。在我的眼里,他是20世纪没有被歌颂的最伟大的英雄之一,他应该获得更高的历史声誉。

    在我看来,西拉特开始是孤独的。当他试图说服其他物理学家时,他预言未来核物理学能够制造出一枚足以荡平整座城市的炸弹。他的先见之明是正确的。他知道自己是对的,他懂得这个理论,并且坚持劝说那时候的掌权者采取行动。

    类似的事情再次发生。越来越多的研究者和教授们预见到这样的未来,那就是:很可能在21世纪,科技会制造出神一样无所不能的超级智能机器。这些人已经掌握了原理。

    他们预见到即将发生的一切,并且为之忧虑。我也是其中的一员。本书试图针对这个问题向人类敲响警钟。如果人类有技术来制造人工智能机器,人类该怎么做?

    如果你觉得人工智能这个概念太具科幻色彩的话,那么,请想想20世纪30年代西拉特所作的预言。它们之间有很强的可比性。想象一下,一个炸弹可以摧毁整座城市,这个观念在20世纪30年代是多么疯狂,然而,它成为了现实。假如现在制造比人类聪明几万亿个万亿倍的机器的观念对你来说是荒谬的话,就请记住西拉特和他的预言吧!

    我希望本书可以引发您去思考,让您意识到这个问题将会主导21世纪的世界政治,“物种主导”这个问题会标识和定义这个时代。“人类是否应该制造人工智能机器?”我相信,在21世纪,这个问题将会比20世纪的“谁将拥有资本”更明显地把人类划分成更加对立的两大阵营。“谁将是地球上的支配物种,人工智能机器还是人类?”将会决定21世纪的全球政治。

    我用一个小口号来结束此章,以更简洁地表达人工智能辩论的精髓。

    “我们是在制造上帝,还是在制造我们潜在的终结者?”
http://wxwx2012.blog.163.com/blog/#m=0&t=1&c=fks_087074093085086069092094095095085080080065086080084070084
页: [1]
查看完整版本: 《谁会代替人类:智能简史》作者:雨果·德·加里斯