PDF:我们还提供了本篇文章的 PDF 版本供读者打印或单击阅读。点击购买或预览。
注:这篇文章花了三周时间才完成,这是因为我无法相信我所看到的这些关于人工智能的研究报告。而这些研究也让我很快意识到,AI 不仅是一个重要的议题,而是对我们的未来有着深远意见的最重要的议题。鉴于此,我萌生了写下这篇文章的念头,我希望可以清楚地解释现在正发生的一切及其重要性。篇幅之长是意料之中,所以我把它分为两部分来讲述。
我们已经到了濒临变革的边缘,而这种变革将会像人类的诞生一样改变一切。
——弗诺文奇
在这一时刻,你有什么想法?
从这幅图中可以看到,人类正处在至关重要的位置。但是你要清楚的是,在真正的时间图中我们是看不到右手边的。所以实际上的感受应该是这样的:
这幅时间图似乎看起来很平常……
遥远的未来即将来临
想象一下自己乘坐时光机器回到 1750 年,那个时候还没有电,必须通过声嘶力竭的呐喊或是发射火炮才能和远处的人交流,所有的交通也都是依靠牲畜。你在那找了一个年轻人并把他带回了 2015 年,让他到处走走并观察他的反应。看到发光的胶囊在公路上奔跑、和世界另一头的人交谈、观看在 1000 英里以外举行的比赛、欣赏 50 年前的一场音乐会、我们手中的神奇方块可以捕捉真实的景象或是记录一个动态瞬间、使用的地图可以随时显示自己位置、和相隔万里的朋友可视通话等等,他看到这些时候的心情和想法是我们无法想象的。但除此之外,你还要向他解释国际空间站、大型强子对撞机、核武器以及广义相对论等很多他不知道的事物。
这样的经历可能会让他感到惊讶、惊吓,甚至震撼——这些词都不足以形容,事实上他可能会因此死掉。
但是有趣的事情来了——他回到 1750 年之后对于我们看到了他的反应而嫉妒不已,于是他打造了同样的时间机器将 1500 年左右的一个人带到了 1750 年,向他展示这个年代的事物。这个 1500 年来的人可能会对很多事情感到震惊,但他绝对不会死。因为这两次经历差距太大了,1500 年和 1750 年的差别远远比不上 1750 年和 2015 年的。这个从 1500 年来的家伙或许会了解到一些关于空间和物理上的知识(而这些知识往往晦涩难懂),会对于欧洲现行的帝国主义制度印象深刻,也会修改 1500 年世界地图上的主要错误。但是看到 1750 年的日常生活(通信、交通等)绝对不会让他死掉。
因此,这个 1750 年的家伙为了获得和我们从他身上得到的乐趣一样的快乐,他会回到更早之前——比如公元前 12000 年,第一次农业革命之前,文明还没有真正形成。如果一个纯粹以狩猎为生的人(那时候人类还只是另一个动物种群)看到 1750 年高耸的教堂、跨洋航行的船只、难以计数的人类发现和知识——他可能会死。
再假设,他死了之后出于嫉妒也做了同样的事,从公元前 24000 年带了一个人到公元前 12000,向他展示自己时代的一切,这个人可能会说“嗯,然后呢?”。如果这个公元前 12000 年的人想要获得同样的乐趣,那他就得回到十几万年前了,这样他就可以展示他用火的能力和语言的能力了。
要让一个人穿越到未来被惊吓致死,那他必须要到足够远的未来,直到那个时代达到“进步致死”状态,或者称作一个“死亡发展单位”(DPU)。在狩猎时代一个 DPU 需要超过 10 万年,农业革命之后发展速度大大加快,一个 DPU 只需要大约 1200 年。工业革命将这一时间变得更加短暂,只需要几百年就可以达到一个 DPU。
人类发展进程随着时间的推进变得越来越快,预言家雷·库兹韦尔将这种现象称为人类历史的加速回报法则。这种现象之所以会发生,是因为更先进的时代更有能力实现更快的发展。19 世纪的人比 15 世纪的人掌握了更多科技,所以他们也理所应当进步更多,这种进步是 15 世纪的人不可能追上的。
这一法则在小范围内也同样适用。在 1985 年上映的电影《回到未来》中,“过去”是指 1955 年。迈克尔·福克斯回到 1955 年之后看到了新奇的电视、苏打水的价格、没有人喜爱尖锐的电吉他、熟悉的俚语也都没有人用。这是一个完全不同的世界,但是如果这样的情节发生在今天,“过去”变成了 1985 年,这部电影会变得更加有趣。90 后的马蒂·麦克弗莱习惯了个人电脑、互联网和手机,回到 1985 年之后会比原来电影中回到 1955 年的马蒂更加无所适从。
原因就是我们刚刚说到的——加速回报法则。1985 年到 2015 年间社会进步的平均速度要远大于 1955 年到 1985 年间的速度。因为现在是个更加先进的世界,过去三十年发生的变化要比前一个 30 年发生的多得多。
所以现状就是,变化越来越巨大,也发生的越来越快。这意味着我们的未来会发生一些难以想象的事情。
库兹韦尔说,整个 20 世纪的进程如果以 2000 年的发展速度,只要 20 年就可以达到。换句话说,2000 年的发展速度是整个 20 世纪平均发展速度的 5 倍。他认为这样的发展量在 2000 年到 2014 年间就又达到了,而下一次达到会在 2021 年,只要 7 年时间。几十年之后,只要一年时间就可以达到好几个整个 20 世纪所达到的发展总量,甚至在更远的未来只需要不到一个月时间。总之,根据加速回报法则,库兹韦尔相信 21 世纪的发展总量会是 20 世纪的 1000 倍。
如果这种理念是正确的,那这个从 1750 年来到 2015 年的家伙的结局就是我们穿越到 2030 年之后的样子。也就是说,下一个 DPU 只需要几十年,2050 年的世界是我们现在所无法想象的。
这不是科幻小说,甚至远远超过我们现在的科学知识所预见到的未来。如果你熟悉历史,就会知道这一说法是合乎逻辑的。
所以当我说“30 年之后的世界将会是你我无法想象的”的时候,你们或许会想“真酷,但是这是真的吗?”我们之所以这样预测未来是基于以下三个原因:
1)我们往往认为历史是线性发展的。当我们想象接下来 30 年的发展时,总会以过去 30 年的发展作为参照物、当我们想知道 21 世纪世界会改变成什么样子的时候,总会将 20 世纪的变化加到 2000 年上。这和 1750 年的那个人简单地回到 1500 年犯得是一样的错误。这种线性思考方式是最直观的,但是更加理智的人会知道其实应该是指数发展的,所以若是想预测接下来 30 年的发展就必须要将现在的发展速度作指数运算。
2)短期发展呈现总是一条直线。首先,就算是一条指数曲线,如果只看一小段的话也是近似于直线的;同样的,一个大圆的一小段也是近似于直线的。其次,指数的增长也不是完全光滑和均匀的,库兹韦尔将其解释为“S 曲线”。
这种 S 曲线是现在席卷全球的一种新发展趋势,一共分为三个阶段:
- 缓慢增长阶段(呈指数增长的早期)
- 快速增长阶段(呈指数增长的后期)
- 趋于平稳的特定阶段
如果大家对近期发展十分了解,那么这个“S 曲线”可以帮助我们预测接下来的发展。互联网在 1995 年到 2007 年间呈爆炸式增长,微软、谷歌、Facebook 走进人们的视线,社交网络快速发展,手机和智能手机相继出现。这是 S 曲线的第二个阶段,快速增长阶段。之后的 2008 年到 2015 年间就没有再出现什么类似的巨大突破(至少是在技术方面)。有人会用过去几年的发展来衡量目前的水平,但其实他们忽视了最重要的问题。事实上,另一轮类似于阶段 2 的井喷式发展正在发生。
3)我们的经验约束了自己对未来的想象。我们往往会根据自己的经验来看待这个世界,我们脑海里也往往有根深蒂固的“事情发展的方式”。但是我们却被自己的大脑(大脑只会用过去的经验来判断未来)禁锢了,通常情况下过去的事情都不能够用来准确预测未来。当我们听到有人预测的未来不符合我们的经验时,往往会下意识地认为这种预测是痴心妄想。如果我告诉你在这篇文章的后面我会告诉你我们可能会活到 150 或是 200 岁,甚至是永远不死,你的下意识反应可能会是,“不可能,历史告诉我们,每个人都会死。”的确,在过去,每个人都会死,但是在飞机发明之前也没有人坐过飞机啊。
所以说,那些认为这一切不可能发生的人如果在看这篇文章,一定要知道自己是错的。事实上,如果我们真正从历史的角度符合逻辑地看待未来,我们就会完全改变自己在过去对未来的预测。逻辑证明如果这个星球上最先进的种群——人类保持现在的发展速度(甚至更快的难以想象的速度)发展下去,迟早有一天人类会迎来一场巨大的变革,将这个星球上的所有生物都彻底改变,将智力发展到不可想象的地步。如果你了解过现在发生在科学技术领域的各种变化,你就会发现有很多信号表明,现在我们所熟知的生命已经不能承受即将到来的飞跃了。
走向超级大脑
什么是人工智能(AI)?
估计有很多人像我一样曾经认为人工智能是一种愚蠢的科幻概念,但是最近我已经在很多专业人士的口中听到了这个话题,不过或许还有人不是很了解人工智能。
很多人对于 AI 感到很疑惑的原因主要是以下三点:
1)一提到 AI 就会想到电影。从《星球大战》、《终结者》到《2001:太空漫步》,甚至是《摩登家庭》,太多的科幻电影采用了机器人作为主要角色,致使很多人都认为机器人太过科幻。
2)AI 的概念太过宽泛。从手机计算器到自动挡汽车,或是未来某些会对世界产生巨大影响的事物。这些都属于 AI 范畴,这也使得大家对于这个概念很是疑惑。
3)我们一直在生活中到处使用着 AI,只是没有意识到。约翰·麦卡锡在 1956 年创造了“人工智能”一词,他认为“一旦它开始发挥作用,就不会再有人叫它 AI 了。”这一现象的原因是,AI 听起来更像是个神话般的未来,而不是现实。与此同时,AI 似乎是个永远不会过时的流行词。库兹韦尔说早在上世纪 80 年代他就听到人们在谈论 AI,但也有人“坚持认为因特网会在 21 世纪早期的互联网泡沫中破灭”。
让我们梳理一下思路。首先,不要再想到机器人了。机器人只是 AI 的外壳,有时候模仿人的形态,有时候不模仿,但是 AI 本身是藏在机器人内部的计算机。AI 是大脑,机器人只是身体(如果有的话)。比如说,Siri 背后的软件和数据是 AI,而我们听到的女声只是 AI 的人格化表现形式,它的背后并不存在任何机器人。
其次,你可能听说过“奇点”、“技术奇点”这样的词。数学中用这一词汇描述正常规则不再适用的类似渐近线的情况。物理中用这一词汇描述无限小而密的黑洞或是在大爆炸之前万物被压缩的状态。也就是说,这些都是正常规则不再适用的状态。1993 年,佛诺文奇写过一篇著名的文章,文中她使用了这一词汇来描述未来人类的技术智能超过人类本身的时刻,到那个时候我们所熟知的生命都会被彻底改变,我们所认可的常规也不再适用。库兹韦尔稍微整理了一下,将奇点定义为一个时刻,在那一时刻加速回报法则会到达一个极值,科技发展会以一种看似无限的速度发展,在那一时刻之后我们会进入一个全新的世界。我发现许多的AI 研究者都不再使用这一词汇了,虽然我不知道原因,但是我也会尽量不使用它。(不过我们依然会持续关注它)。
最后,因为AI 是一个宽泛的概念,所以拥有太多的分类。但是我们需要考虑的最重要的几类都是基于AI 等级进行分类的。下面是三种主要的AI 等级分类:
1)狭义人工智能(ANI):有时候也叫做低能 AI,这是 AI 在特定领域的运用。可以打败国际象棋世界冠军的 AI 就是这种,它只会做这一件事,如果让它找出在硬盘存储数据的更好办法时,它会茫然不知所措。
2)广义人工智能(AGI):有时候也叫做高能 AI,或者是近似于人的 AI,这种 AI 指的是几乎和人一样聪明的计算机,它可以像人一样做各种事情。创建一个 AGI 要比 ANI 难得多,我们还处在研发阶段。琳达·哥特佛雷德森教授将智能定义为“一种普通的心理能力,包括解释、计划、解决问题、抽象思考、理解复杂概念、快速学习和经验学习的能力”。AGI 可以像人一样拥有这些能力。
3)人工超智(ASI):牛津大学哲学家和 AI 领导者尼克·博斯特罗姆将超智定义为“在科学创造力、普适智慧和社会技能等各个领域都比最强人类大脑还要聪明的智能。”广义上来说,不管是只比人类聪明一点点,还是聪明无数倍,这些计算机都叫做人工超智。这也是为什么 AI 会是这样一个棘手的议题,“人类不朽”和“人类灭绝”两类词同时频繁出现也是因为 ASI。
到目前为止,人类已经征服了 AI 的最低等级——ANI,而且现在已经被广泛使用。AI 变革之路会沿着 ANI,到 AGI,最后就是 ASI,我们可能见到,也可能见不到这样的变革,但是不管怎样,AI 变革都会改变一切。
让我们来仔细研究一下那些领导思想家们对于这条变革之路的看法,以及为何 AI 变革会发展得远快于我们的想象。
我们目前的状况——运用 ANI 的世界
狭义人工智能是在某一特定领域等于或近似于人类智力的机器智能。下面是几个例子:
· 汽车上到处都是人工智能,从防抱死刹车计算到燃油喷射系统参数计算。谷歌的自动驾驶汽车现在正在测试阶段,其中包含了完整的 ANI 系统,该系统可以感知周遭环境。
· 我们的手机就是一个小型的 ANI 工厂。当你使用地图应用程序、从 Pandora 收到定制音乐推荐、检查明天天气、和 Siri 交谈以及各种其他活动的时候,都是在使用 ANI。
·你的垃圾邮件筛选器就是典型的 ANI——它会运用智能分辨出什么是垃圾邮件什么不是,并且会从过往经验和你的特定偏向中不断学习。家庭恒温控制器也会同样地从用户的行为中找出常规做法并且采取相应的行动。
·当你在亚马逊网站中搜索某样产品时,会发生一系列令人毛骨悚然的事情。在你搜索之后,会在其他网站中看到类似的“推荐产品”;或者是 Facebook 知道你想要添加谁为好友。这就是 ANI 系统网络,这些系统会相互合作、相互通知,包括你是谁、你喜欢什么,之后就会选取合适的信息显示给你。所以亚马逊会有“购买了该产品的人还购买了……”这样的分栏,这就是 ANI 系统在工作,它会收集数百万消费者的购买信息,在仔细分析信息之后向用户推送相关产品,刺激用户的购买欲望。
· 谷歌翻译也是另一个典型的 ANI 系统——在特定工作中表现出色。语音识别是另一种,有很多应用程序采用这两个 ANI 系统作为一个整体,这样只要用户对着手机说出一句话,软件就可以将其翻译为另一种语言。
·飞机降落的时候,不是人在决定飞机应该去哪个登机口,当然,也不是人在决定飞机票的价格。
· 现今世界上最出色的跳棋、象棋、拼字游戏、西洋双陆棋和奥赛罗玩家都不是人,而是 ANI 系统。
· 谷歌搜索也是一个大型 ANI 大脑,使用了许多不可思议的精密方法来计算网页排名、决定应该把什么内容显示给特定的用户。Facebook 的新闻来源页面也是这个原理。
· 前面说的这些只是在日常生活中的 ANI。复杂的 ANI 系统还广泛运用在军事工业、制造业和金融业(AI 高频算法计算器负责美国股市一半以上的上市股权计算)等领域。除此之外还有很多技术领域,比如帮助医生诊断病人,还有著名的 IBM Watson,能够助力决策者从大量非结构化数据中揭示非凡的洞察,化解危险局面。
现在的 ANI 系统并不是十分可怕。最坏情况就是,ANI 出现问题或是有编程错误会导致灾难出现,比如是电网瘫痪、核电设备故障或是触发经济市场灾难(像是 2010 年的 Flash Crash 事件,因为一个 ANI 程序对一个意外状况的错误反应,导致了股票市场的下跌,造成了 1 万亿美元市场额的损失,错误修正之后只有一小部分得到恢复)。
虽然 ANI 不会造成巨大威胁,但是我们应该将这个正处在迅速发展的相对无害的 ANI 看做是改变世界变革的先驱。每一次 ANI 创新都是在向 AGI 和 ASI 的发展添砖加瓦。或是像亚纶恩斯所说的那样,如今的 ANI 系统“就像是地球处在原始状态时的氨基酸”,是一种没有生命的东西,但是突然有一天,它就醒了。
从 ANI 到 AGI
为什么困难重重?
没有什么可以像学习如何创建一个像我们人脑一样聪明的计算机这样地令人激动。建造摩天大楼、进入太空、探寻大爆炸发生的原因——这些事情都远比了解我们自己的大脑要容易得多。到目前为止,人类的大脑是宇宙中已知的最为复杂的对象。
有趣的是,创建 AGI(近似于人脑一样聪明,而且不局限于特定的领域)最难的部分不是我们凭直觉想象的那样。创建一台可以在一瞬间生成两个十位数的计算机很容易。创建一台可以分辨猫狗的计算机就很难了。创建可以打败人类的象棋 AI?已经做到了。创建一个可以理解 6 岁孩子图画书上内容的 AI?谷歌正在花费数百万美金进行研发。我们认为困难的部分——比如说微积分、金融市场策略和语言翻译——这些对于计算机来说相对容易,但是我们觉得很简单的部分——视觉、手势、移动和知觉——这些对于AI 来说就很难。或者像是计算机科学家唐纳德·克努特所说,“AI 发展到现在已经可以完成‘需要思考’的任何事了,但是却不能完成人和动物都可以做到的‘不需要思考’的大多数事情。”
想到这里,你应该很快意识到了一个问题,那就是对于我们来说十分简单的事情其实有着难以想象的复杂性,之所以简单只是因为这些技能在人类和许多动物经过千百年来的进化过程之后变得与生俱来了。当你伸出手拿东西的时候,你的肌肉、肌腱、肩膀上的骨头、肘关节都在执行一系列的物理操作,连同你的眼睛让你在三个维度准确移动,似乎整个过程是毫不费力的,但其实是因为你的大脑已经完全完善了这一软件。这也是为什么你在注册一个新网站账号的时候可以顺利通过验证码——你的大脑对于这样的操作太过熟悉。
从另一个角度来说,计算大数字相乘或是下棋都是生物的新活动,我们还没有通过进化过程精通它们,所以计算机只要稍加努力就可以击败我们。想想吧,你更愿意选择哪个,创建一个可以计算大数字相乘的程序还是创建一个可以识别各种字体字母的程序?
下面是一个有趣的例子——你和计算机都可以识别出这是一个具有两种色调的矩形交替:
目前为止人和电脑和电脑的反应都是一样的,但是如果你去掉黑色并显示完整图像……
……你可以轻松描述这些东西,透明或者不透明的圆柱体、长方体或是三维的角落,但是计算机会完全失败。它会描述它所看到的东西——不同色调不同形状的二维图形——当然它说的也没错。你的大脑内部有无数的识别程序,什么样的深度、什么样的颜色并且会在脑中虚拟出图片中物品的样子。看下面这张图,计算机会看到一个二维黑白灰三色的拼接,而你可以很容易地看出这是完全黑色的一块三维岩石的图片:
这些还都只是在处理静态信息。要想达到人工智能水平,计算机要学会理解事情间的微妙关系,比如说各种表情变化,高兴、放松、满足和开心之间的细微差别,这也是为什么《勇敢的心》这么出色,可是爱国者导弹却那么糟糕了。
这一切都那么的令人生畏。
所以怎么样才能达到那样的水平呢?
创建AGI 的第一步:增强计算机能力
如果想要创建AGI,首先必须要做的事情就是增强计算机硬盘能力。如果一个AI 系统想要和人脑一样智能,就必须要和人脑的原始计算能力相当。
表达这种能力的一种方式就是大脑每秒可管理的计算总量(CPS),计算方式是将大脑各部分的cps 最大值相加。
库兹韦尔想出了一种估测CPS 的快捷方法,那就是算出某人大脑某一结构的CPS 和该结构的质量之比,然后用整个大脑的质量乘以该比例,借此来估计总的CPS 值。听起来似乎有点玄乎,但是他用这一方法测试了多个人的CPS 和专业测试的CPS 值进行比较,结果大致相同,大概是10 千万亿个CPS。
目前世界上最快的超级计算机中国天河2 号其实已经击败了这个数字,实际上达到了34 千万亿个CPS。但是天河2 号太大了,占地面积720 平方米、使用24 兆瓦的电力(大脑才使用 20 瓦电力),并且耗资 3.9 亿美金。所以根本不适合广泛使用,甚至是商业和工业用途也不可行。
库兹韦尔建议我们用 1000 美金可以购买多少 CPS 来衡量一台计算机的性能状态。等到 1000 美金可以购买 10 千万亿 CPS(也就是人类大脑水平)的时候,就意味着 AGI 可以进入日常生活了。
摩尔定律是很可靠的一个定理,定律表明世界上最大的计算能力每两年增加一倍,这就意味着计算机硬件水平就像人类进步水平一样呈指数增长。根据库兹韦尔的CPS/$1000 度量方法,我们现在的水平是10 兆/$1000,发展水平大概是图片所示的这样:
所以说现在可以用1000 美金买到的电脑完全能够打败一只老鼠的大脑,大概是人脑的一千分之一。这样的数字听起来似乎很小,但是我们应该考虑到在1985 年的时候这个数字是一万亿分之一,1995 年的时候是十亿分之一,2005 年是一百万分之一。现在2015 年是一千分之一,按照这个步伐,到2025 年就可以达到人脑水平了。
在硬件方面也是这样,现在已经可以提供AGI 所需的原动力了。中国十年内就可以制造出可负担的、广泛运用的AGI 硬件。但是独立的原始计算能力还不足以使得计算机达到一般智能化,所以接下来的问题就是我们如何使得计算机能力达到需要的水平?
创建AGI 的第二个关键:让它变聪明
这部分让人很头疼。事实就是没有人真正知道该怎样使AI 变聪明,我们还在争辩如何让一台计算机和人一样聪明,可以识别猫狗和随意写下的字母。但是已经有人想出了一些很牵强却有可能行之有效的方法。下面是我知道的三种最常见的方法:
1)复制大脑。
这就像是科学家和一个聪明的孩子坐在一起考试,这个孩子实在太聪明了,不管科学家怎样努力都赶不上他,最后科学家只好决定“不管了,我要去抄他的答案了。”这种方法是管用的——我们一直在试图创建一台极为复杂的计算机,但其实完美的原型就在我们每个人的脑袋里。
科学家们正在努力对人脑进行反向工程,想要探寻自然进化是如何使得大脑可以完成如此复杂工作的。乐观估计,到2030 年我们就可以完成这一工作。一旦我们做到了这一点,我们就会知道大脑如此强劲有效运行的秘密,然后从中汲取灵感。一种模仿大脑的计算机结构就是人工神经网络,开始的时候网络中都是晶体管“神经元”,它们相互连接来输入输出,现在它一无所知——就像是刚出生的婴儿大脑;它会在完成任务的过程中“学习”,比如说手写识别,最开始其神经触发会完全随机猜测每一个字母,但是如果猜对了它就会加强创建这一答案的晶体管连接,反之削弱;经过大量的类似判断和反馈,这个网络本身会形成完成这一任务的最优化途径。人脑的学习过程也类似于这样,但是会更复杂一点,随着我们对人脑的进一步研究,也许会发现利用神经回路的新方法。
更极端的复制是一个被称为“全脑仿造”的战略,目标是将真正的人脑切成薄层、逐层扫描,使用软件组装出一个准确重建的三维模型,然后在功能强大的计算机上执行模型。这样我们就会拥有一台电脑能够真正拥有人脑的一切能力——它要做的就只是学习和收集信息。如果工程师足够厉害的话,这样的计算机将准确模仿人脑,只要脑部结构被上传到计算机中,其完整人格和内存容量就会得到准确呈现。比如说说Jim 的大脑在他死之前都是Jim 的,死之后计算机就会作为Jim 继续存在,这将是超级水平的AGI,之后我们就可以逐步发展将其变为难以想象的超智能ASI 了。
要想实现整个大脑的仿真还有多久呢?到目前为止,我们刚刚能做的只是仿效1 毫米长的扁形虫大脑,其中包含了302 个总神经元,而人脑大概包含1000 亿个。或许这样的比较让未来看起来毫无希望,但是你要相信指数的力量。现在我们已经征服了扁形虫,不久之后就可以征服蚂蚁,然后是老鼠,之后你会突然发现,人脑也不是不可能。
2)利用进化过程
如果我们觉得直接抄袭那个聪明孩子的试卷太难,那我们可以尝试复制他的学习方法。
我们已知的就是创建一个和人脑一样聪明的计算机是可能的——我们自己的大脑就是最好的证明。如果直接复制大脑太过复杂,那我们可以试着复制它的进化过程。事实上就算我们可以复制大脑,那么也会像是我们为了发明飞机而复制鸟翼扑打一样——通常情况下,最好的机器设计的方法一般是创新的、面向机器的方法,而不是完全模仿生物。
所以说具体的做法到底是怎样的呢?这种方法被称为“遗传算法”,工作原理是这样的:进行无数次的绩效评估过程(和生物生活、改造环境是一样的)。一组计算机会同时尝试完成某一任务,然后将成功完成的那些的程序重组融合成一台新电脑。不太成功的那些会被淘汰。经过很多次的迭代之后,就会自然选择出更好的计算机。对于我们来说,挑战就在于如何建立可以自动化运行的评价筛选机制。
复制进化的缺点就是自然进化花费了 10 亿年的时候,而我们想要在几十年的时间里完成。
但是我们有很多优势。首先,自然进化没有预见性,随机性很强——所以会生成无益突变,但是我们可以控制整个过程,使它只能生成有益的、针对性的“下一代”,其次,自然进化没有目的性(包括智力),有时候环境选择甚至会淘汰高智商(因为高智商会消耗更多的能量)。而我们可以将进化过程针对于提高智商。第三,要想在自然进化中提高智力,就必须要改变很多方面来为其让路——比如说改造细胞产生能量的方式。而我们就不需要这么麻烦,我们可以用电。毫无疑问,在进化方面我们会快得多,但是还不确定我们是否可以使用这种进化法来实行这一策略。
3)让计算机自己完成这一切
当科学家感到沮丧并尝试编写测试程序时,这或许就是我们犯的最大的错误。
真正的想法是,我们建造一台计算机,它的两个主要技能就是在研究 AI 并且改造 AI——让它不仅能学习,更会自己提高自己的体系结构。我们要教会计算机成为计算机专家,这样它们就可以引导自己的发展,它们的主要工作就是让自己变得更聪明。之后会具体阐述这一观点。
所有这些都会很快成为现实
硬件和创新性软件的迅猛发展让 AGI 短期内成为现实主要有以下两个原因:
1)指数增长的速度是不可想象的,看起来似乎是蜗牛,其实跑得飞快。下面一个动画可以很好地解释这一概念:
2) 软件的发展似乎有些缓慢,但是只要灵光一现之后发展速度就会被立刻改变(就像是科学进步的步伐,人类信奉地心说的时候一切都像是停滞了,但是一旦改换成日心说之后宇宙运作等原理就立刻柳暗花明了)。换句话说,想要创建一台可以自我提升的计算机似乎看起来很难,但实际上只要出现一次转机,那么一切都会以 1000 倍于现在的速度发展起来,越来越靠近人脑。
从 AGI 到 ASI
我们将达到 ASI 定义为——具有和人一样智力水平的电脑。到那时就是一堆人和一堆电脑生活在一起的世界。
不过事实上完全不是这样。
真是情况就是和人具有同等水平智力和计算能力的 AGI 会比人有着更为显著的优势。比如说:
硬件:
- 速度。人脑的神经元的最大输出速度大概是 200Hz,而今天的微处理器(远低于未来的 AGI)可以达到的速度是 2GHz,比人脑神经元快 10 万倍。还有,人脑的内部通信速度大概是 120m/s,但是计算机的这一速度可以达到光速。
- 大小和存储容量。人类的头骨将人脑限定在一定的大小范围内,不管怎么说这一点是不可改变的;就算改变了,120m/s 的速度也会让不同脑结构之间的交互变的更慢。相比之下,计算机可以变成任意大小形状来容纳更多的硬件。工作内存(RAM)和长时记忆(硬盘存储)都会远远超过人脑的容量和精确度。
- 可靠性和耐用性。计算机除了拥有更加精确的记忆功能之外,用于计算的晶体管也比生物神经元更加准确,而且出故障的可能性也几乎为零(如果真的坏掉,也可以进行修复或更换)。同时,人脑容易疲劳,而计算机却可以以最佳性能永不停歇地运转。
软件:
- 可编辑、可升级、拥有更多的可能性。计算机软件不同于人脑,它可以轻松接收更新和修复,而且很容易做相关实验。升级功能可以优化人脑的薄弱点。人类的视觉软件十分先进,但是处理复杂工作的能力却很低端。计算机可以在视觉软件方面赶上人类,同时也可以优化处理能力和任何其他能力。
- 收集能力。人类庞大的智慧体系碾压了其他所有物种。首先是语言的发明、大而密集团体的形成,然后发明书写和印刷术,到现在利用互联网这类工具继续推进发展人类智慧,人类会集合所有人的智慧是我们之所以能超越其他物种的原因。而计算机会做得比我们更好,运行某个特殊程序的 AI 可以在全球网络范围内定期同步,任何一台电脑上的任何行为都会被上传到这个网络中去。整个团体会作为有着同一个目标的整体,因为它们不会像人一样拥有个人的不同意见、动机和个人兴趣。
编写自我提升的程序可以帮助 AI 变成 AGI,但是“变得和人类一样聪明”绝不是 AI 的重要里程碑,而只是从我们角度来看的一个标记,没有任何理由相信 AI 会在这一水平就此停下脚步。鉴于 AGI 相较于人类而言的各种优势,打败人类只是前进路上的一个过程,最终目标会是达到超智水平。
我们可能会被这样的局面吓倒。从人类的角度来看原因有二:a)虽然不同种类的生物拥有不同的智慧,但是我们之所以知道这些动物的特点所在是因为动物的智慧远低于人类智慧;b) 我们认为聪明人比笨蛋聪明的地方就在于处理事情的方式不同,就像这样:
所以当 AI 在向人类智慧靠近的过程中,我们会把这一过程看做它在变聪明(就像看一个动物一样);当 AI 达到人类智慧的最低点的时候——就像尼克·博斯特罗姆使用了“傻帽”一词——我们会这样说“看呐,这是个傻帽耶!”关键问题是,从傻帽到爱因斯坦,他们的智慧都只存在于一个很小的范围内。只要有人称呼 AI 为傻帽,那么它会在我们不知道的时候突然就变成爱因斯坦:
在那之后会发生什么呢?
知识大爆炸
我希望所有读者都会喜欢之前所有的铺垫,因为从现在开始话题会变得不同寻常了。在这里我要暂停来提醒你们,我要说的每一件事都是真实的,是最受尊敬的思想家和科学家站在宏观角度做出的真正科学的对未来的预测。要牢记这一点。
不管怎么说,正如我上文提到的那样,我们现在能想到的将 AI 变成 AGI 的过程都是靠它自己的不断改进。即便是原来没有包含自我改进的方法,一旦达到 AGI 水平,它们就会按照自己的想法不断改进自己。
这就是令我们恐慌的概念——递归式的自我完善。工作原理就像这样:
某一特定级别的 AI 系统——比如说是人类世界里的傻帽——其编程目标是提高自身智力。一旦开始运行,它就会变得越来越聪明——有可能达到爱因斯坦级别——到了那个时候想要做出更大的进步就变得更容易了。随着进步变得越来越大、发生的越来越快,AGI 很快就会达到超智水平,也就变成了 ASI。这就是所谓的知识大爆炸,也是加速回报法则的终极状态。
关于 AI 何时能达到人脑水平,学术界还存在争辩。根据数百名科学家的预测数字做出的中位数来看,这一年份是 2040 年——距今只有 25 年时间,听起来似乎不算是太快,但是许多 AI 领域的思想家都认为 AGI 到 ASI 的过渡会发生的非常快。就像是这样:
从最开始出现 AI 系统,发展到低智力水平可能需要几十年时间,但是这终将发生。这时候的电脑理解周围事物的能力可以达到 4 岁儿童的水平。突然,达到这一里程碑之后的一小时内系统就会迸出伟大的统一广义相对论和量子力学,甚至是人类迄今为止还不能理解的物理理论。90 分钟之后,AI 就会变成 ASI,这个系统会比人类聪明 17 万倍。
到那时,这种超智水平已经是人类无法控制的了,就像是一只大黄峰环绕着凯恩斯经济学家的脑袋,但却无计可施。在人类世界里,聪明意味着 IQ130,傻瓜意味着 IQ85——我们甚至不会想到会有 IQ 达到 12952。
我们所知道的是人类在这个地球上的统治地位有着一条明确的规则——智商带来权力。这就意味着一旦 ASI 出现,它就会成为这个地球历史上最为强大的存在,所有生物,包括人类在内,都将被它统治——而这一切可能在几十年内发生。
如果我们人类这种水平的智商可以发明 WIFI,这就意味着比我们聪明 100、1000 或 1 亿倍的 ASI 完全可以随时控制这个世界上它喜欢的每一个原子的位置——任何我们能想到的魔法力量,每一种能力的最高阶,将会成为 ASI 的日常。开发出各种技术扭转人类衰老、治疗疾病,消灭饥饿、甚至死亡;改变天气来保护地球生物的未来,这些都将不是问题。不过那一时刻也有可能是地球上所有生命的终结。就我们而言,如果 ASI 成为现实,那它就是现实世界里万能的神——留给我们最重要的问题就是:
它会是一位善良的神吗?
阅读英文原文: The AI Revolution: The Road to Superintelligence
感谢夏雪对本文的审校。
给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ , @丁晓昀),微信(微信号: InfoQChina )关注我们。
评论