也许实现真正完全的人工智能的唯一方法,是向人工智能注入人工智障元素,迄今为止的人工智能还远未达到人类水平;因此,我们只要和人工智障保持距离,或轻视其应有的作用,我们将永远无法实现完全人工智能的“极乐世界”,在这样的“极乐世界”里人工智能将和人类一样聪明。如果我们不去考虑人工智障元素,我们可能会阻碍自己到达人工智能的巅峰。
序 言
人类同时拥有智慧与“愚蠢”的行为,自动驾驶汽车是不是也应该具备同样的两种行为模式呢?
当你听到某人说另外一个人很有智慧时,你很可能会认为这是一种表扬,表扬那个人多么机灵或者聪明。
相反的,如果某人被贴上了“愚蠢”的标签,人们可能就会条件反射性地认为这个人应该不太聪明。通俗来说,对“愚蠢”的常用定义是,愚蠢表示缺少某种智慧。
这种定义带来了一种奇怪的现象。
假设我们有这么一个桶子,里面装满了智慧。我们假装智慧是某种有形的东西,我们可以把智慧倒进桶子里,也可以把智慧从桶子里倒出来,假设我们手边正好有这么一个桶子。
如果我们把桶子里的智慧都倒在地上,桶子里还会剩下什么呢?
一个答案是,这个桶子现在完全空了,桶子里什么也没有剩下。这个桶子变得空空如也,里面什么也没有。
另一个答案是,这个把智慧都倒出来了的桶子里剩下的是愚蠢。换句话说,一旦你移除了所谓的智慧,那么你剩下的就是愚蠢了。
我意识到这看起来是个非常深奥的讨论,但是,过一会儿,你就会发现许多重要的事情都在这一点上存在着相当大的分歧,像人工智能这样的领域的发展和崛起尤其如此。
请思考下面这些重要的问题:
这世上可以只有智慧,没有愚蠢吗,或者更切合实际地说,当这世上存在智慧时,某种愚蠢也是必定存在于世的吗?
有人断言说,智慧和愚蠢就好比是禅宗里的阴和阳。
从这个角度看,除非你有一把尺子来衡量愚蠢,否则,你是无法理解智慧的本质的。
据说,随着时间的推移,人类变得更具智慧了,于是,人类的愚蠢程度也降低了。你可能会认为,智慧和愚蠢是一个零和游戏,也就是说,当你的智慧水平提高时,你同时会降低你的的愚蠢水平(相似的,如果你的愚蠢程度提高了,这就意味着你的智慧水平降低了)。
人类可以达到 100%的智慧,以及 0%的愚蠢吗,或者说,我们注定就会带有某种程度的愚蠢吗,不管我们有多么努力想要变得完全充满智慧,最终也是做不到的吗?
回到上面那个桶子的比喻,一些人会说,一个人绝不可能是只具有智慧,而没有任何愚蠢成分。在那个桶子里,总会有某种数量的愚蠢成分存在。
如果你很聪明并且足够努力,你可能降低你的愚蠢程度,但不管怎样,在那个桶子里,还是会有一定数量的愚蠢成分存在,尽管这个桶子里面的愚蠢成分可能处于某种最小数量的状态。
愚蠢对智慧会起到帮助作用吗,还是会起到伤害作用?
你可能倾向于认为任何愚蠢都是不好的,于是,我们就必须致力于控制住“愚蠢”,或者避免愚蠢的出现。
但是我们需要问的是,简单地把愚蠢划分到“坏”的类别,而把智慧划分到“好”的类别,是否会让我们遗漏某些更为复杂的东西。你可能会争辩说,有时候,适当的愚蠢可能会提供更多的智慧。
当我们还是孩子时,想象一下,你愚蠢地绊到了自己的脚,在经历了这样的事情后,你就会意识到是因为你没有小心地抬起自己的脚,所以才绊倒。从今以后,你就会更加注意走路的方式,因此在走路这件事上也就变得更有智慧。可能在你今后的生活中,比如在很窄的马路牙子上走路时,你会尽量避免自己从马路牙子上摔下来,由于之前早期生活的“愚蠢”经历,这种“愚蠢”已经成为了你智慧的一部分。
当然,愚蠢也会让我们陷入麻烦。
尽管你通过愚蠢的经历学会了小心走路,某天,你决定在大峡谷悬崖边上昂首阔步地走路。当你这样做时,突然,你从大峡谷掉了下去,坠入了深渊。
像这样在悬崖边上走路是明智之举吗?
当然不是。
所以,我们可能需要注意一下,愚蠢可能是朋友,也可能是敌人,在任何环境下,在任何时刻,决定其是敌是友的正是智慧。
你可以想象一下在智慧和愚蠢之间有一场永恒的斗争。
从另一个方面讲,你也可以把智慧和愚蠢想象成一对小伙伴,他们互相促进,于是,他们就不像是一场争斗,而像是一场微妙的舞蹈,又像是某种形式的角逐,(有时候)其中一方会占据上风,有时候其中一方能够调和另一方,甚至是帮助另一方。
以上的序言为讨论一些人们越来越关注的问题提供了基础,也就是人工智能的角色,还有“人工智障”的角色。
认真考虑人工智障
我们每天都可以听到人们说起,我们的生活如何通过人工智能发生了变化。
人工智能正被注入我们的智能手机、冰箱、汽车等物件。
如果我们想要把人工智能应用于我们使用的东西上,那我们就应该思考一下,我们是否需要考虑事物的另一面,特别地,是否需要认识到人工智障?
大部分人听到或者看到“人工智障”这个词都会窃笑,他们一定认为这是人工智能圈内人士的某种笑话,来指代此类事情。
不可否认,“人为”(Artificial)和“愚蠢”(Stupidity)这两个词放在一起似乎本身就很愚蠢。
但是,回到之前讨论的人类同时具有智慧和愚蠢这两种属性的话题,你可以重塑你的观点,然后你可能会看到,只要你讨论到人类智慧时,你不可避免地会找到某个角度讨论到人类的愚蠢。
有些人认为,我们应改用另一种方式来表达“人工智障”,从而减少这种窃笑的情况。人们提出来的其他短语包括“人工非智能”(Artificial Unintelligence),“人造的人性”(Artificial Humanity),“人为沉默”(Artificial Dumbness)等,但至今还没有一个词被大众所接受。
请和我一起忍受并接受这个词,即“人工智障”,同时请怀着这样的信念:讨论“人工智障”并不傻。
事实上,你可以说,不讨论“人工智障”是种愚蠢的做法,因为你不愿意或者说不能接受愚蠢存在于我们的真实世界这样的事实,于是,在计算机系统构建的人工世界里,我们虽然想创造人工智能,但却会忽略或者看不到人工智能这个事物的另一面。
简而言之,一些人说,真正的人工智能需要把今天我们所认为的“智慧”或者说人工智能好的一面,与“人工智障”(人工智能的所有缺点)结合起来,尽管这种结合需要以一种智慧的方式来实现。
那现在就让我们来处理这种直接的膝跳反应(本能反应),因为大多数人对这样的概念都具有本能反应。处理的方法就是消除以下观念:通过将人工智障引入人工智能,你就会从本质上、不可逆转地引入愚蠢,也因此会让人工智能变得愚蠢。
当然,如果你通过愚蠢的方式引入愚蠢的元素,那你就会有很大概率破坏人工智能好的一面,从而就让人工智能真的变得愚蠢了。
另一方面,在认识到人类如何操作的情况下,如果经过了深思熟虑之后再引入愚蠢元素,最终这还会帮助到人工智能(想想上面说的在小时候绊到自己脚的那个故事)的发展。
这样的观点可能会让你感觉不适应。
也许实现真正完全的人工智能的唯一方法,是向人工智能注入人工智障元素,迄今为止的人工智能还远未达到人类水平;因此,我们只要和人工智障保持距离,或轻视其应有的作用,我们将永远无法实现完全人工智能的极乐世界,在这样的极乐世界里人工智能将和人类一样聪明。
如果我们不去考虑人工智障元素,我们可能会阻碍自己到达人工智能的巅峰。
这真是一记重拳,而且反直觉,它常常让人们止步不前。
最近逐渐有迹象表明,对愚蠢元素(或者任何能表达同样意思的短语)的揭示和利用,可能是相当重要而且是有意义的。
在最近由加州伯克利分校的Simons计算理论研究所赞助的一场演讲中,我与来自 MIT 的 Andrew Lo 教授进行了交流,我们讨论了教授所主张的观点,就是恰当地将人工智障引入金融模型中,以帮助金融模型更好地进化,教授做到了这点,并且意识到了我们需要恰当地识别人类的弱点,并且在蓬勃发展的金融科技领域中限制这些弱点带来的影响。
他与其他人合著的书籍《华尔街上的非随机漫步》(A Non-Random Walk Down Wall Street)中优雅地探讨了人类的行为是怎样由理性部分和非理性部分组成的,由此创造了他的理论,即“适应性市场假说”(Adaptive Markets Hypothesis)。他富有见解性的方法超越了现有金融交易市场的做法和最佳操作的主流边界。
还有其他领域或者应用场景能体现出人工智障的用武之地的吗?
是的,有。
我断言,其中的一个场景,就是在真正的自动驾驶汽车问世时加入人工智障元素。
震惊吗?
也许吧。
让我们探寻其中的奥秘吧。
探寻人工智障,以从中受益
当谈到真正的自动驾驶汽车时,我关注的是用于衡量自动驾驶汽车标准等级中的第 4 级和第 5 级这两个标准级别。这些是配备了人工智能系统的自动驾驶汽车,不需要也没有规定说要给它们配备一位人类驾驶员。
在自动驾驶汽车上,人工智能系统会获得所有驾驶操作的掌控权,任何/所有坐在车里的人员都被认为是乘客,而非驾驶员。
在讨论人工智障这个话题时,有必要快速回顾一下这个术语是从何而来的。
20 世纪 50 年代,著名的数学家和计算机科学先驱人物 Alan Turing(艾伦·图灵)提出了著名的人工智能图灵测试。
这个测试简单地说,就是把你置身于这样一个场景中,即你可以与装载了人工智能的计算机系统和一位人类参与者同时独立交互,在置身于该场景之前,没有人告诉你谁是人工智能计算机系统,谁是人类参与者(我们假设这两个参与者都是视觉不可见的),你可以向这两个参与者提问,最后你需要判断出谁是人工智能计算机系统,谁是人类参与者。
如果你无法区分这两个参与者,那我们就可以说这样的人工智能系统通过了图灵测试,因为它展示了和人类一样的智慧。从这个意义上讲,人们无法将人工智能计算机系统与人类区分开,因此就可以在智能交互方面,将两者视为等同的。
这个逻辑有一些漏洞,我在这个链接里提供了详细的分析。在任何情况下,图灵测试都被广泛应用,作为衡量真正人工智能是否会实现、何时会实现的一个晴雨表。
最初的图灵测试有一个不为人知的小插曲。
在图灵测试中,一种投机取巧的提问方式是,你可能会耍些小聪明,让两个参与者计算圆周率的千位数。
据推测,人工智能系统将在一眨眼间就告诉你正确答案,而且做得非常准确。而人类参与者要得到这个答案将是非常吃力的,人类参与者会用铅笔在纸上进行繁重枯燥的计算,最终也不一定会得到正确答案。
图灵意识到了这一点,也承认通过问这样的问题,会暴露人工智能系统的身份。
于是,图灵添加了一个步骤,有些人认为这个步骤是打开了潘多拉的魔盒,并且他建议人工智能系统在回答算数问题时应避免给出正确答案。
简而言之,人工智能系统可以表现地像人类一样回答问题,以此来愚弄提问者,这包括在答案中引入错误,或者像人类手动计算一样花费同样的时长来回答这样的问题。
从 20 世纪 90 年代开始,人们发起了一种类似于图灵测试的竞赛,并提供适当的现金奖励,这个竞赛被称之为 Loebner 大奖赛。这个竞赛中的人工智能系统通常会被特意引入一些人类会犯的错误,来帮助愚弄提问者,好让他们相信这个人工智能系统就是人类玩家。这个竞赛是有争议的,但我不打算在这里讨论其中的细节。1991 年,《经济学人》刊登了关于这个竞赛的一篇文章,现在这篇文章已成为一篇经典之作。
请再次注意,这里又有些讽刺了,我们把愚蠢元素引入进来,反而是想展示某种智慧。
这节简短的历史课为接下来的讨论提供了方便的起点。
让我们把人工智障这个话题归结为两个主要方面或者说定义:
人工智障是有目的的将类似人类的愚蠢行为整合到人工智能系统中,这样做是为了让人工智能系统看起来更像人类,这样做不是为了改进人工智能系统本身,而是为了塑造出人类对人工智能系统看起来是智能的看法。
人工智障是对人类无数小缺点的承认,如果对这种结合管理得当,那么在人工智能中潜在地包含这样的愚蠢行为或者和人工智能并行存在,也许能起到改进人工智能系统的作用。
关于第一个定义,我想澄清的一个常见的不当说法,就是人们通常认为计算机会有意地错误计算某些东西,这种想法是不大正确的。
有些人对此表示恐惧和对计算机计算方式的鄙夷,他们认为第一个定义可能包含某种暗示,即计算机将故意寻求错误计算的方法,比如计算圆周率,计算机会用一种不精确地方式进行计算。
这并不是第一个定义想表达的含义。
对于计算圆周率,可能是这样的情况,计算机可能会先正确地计算出圆周率千位数,然后选择改变其中几个数字,并记录下这种改变,这都会在一眨眼的功夫中发生,然后计算机会等待一段时间后再展示结果,这段等待的时间将会和人类手动计算的时间同样长。
通过这个方式,计算机内部是有一个正确答案的,它只是展示出来一个看似有错误的答案。
这个方式,对于那些希望通过计算机得到正确计算报告的人来说当然是件坏事,但请注意,这和计算机实际过程中计算出错绝对不是一回事。
关于这些细微差别还有很多要说的,但是现在我们还是继续往前讨论。
以上两个关于人工智障的定义都可以应用于真正的自动驾驶汽车。
虽然引入人工智障元素会带来一定程度的焦虑,但是这值得我们对一些问题进行思考。
人工智障和真正的自动驾驶汽车
现如今,在我们的公路上试行的自动驾驶汽车,因其独特的驾驶技术得到了一些比较模糊的名声。总地说来,当下的自动驾驶汽车就好像是一位十几岁的新手驾驶员,对驾驶任务有些胆怯和犹豫。
举例来说,当你遇到一辆自动驾驶汽车时,你将发现它通常会和前面的车辆保持一段很长的安全距离,这是自动驾驶汽车在试图遵守汽车间距经验法则,人们通常在第一次学习驾驶时会学到这个法则。
人类驾驶员通常不会关心汽车安全区域,也不关心是否比其他车快了很多,人类驾驶员会根据自己对危险的判断而决定怎样做。
以下是另一个驾驶习惯的例子。
自动驾驶汽车遇到停车标志时,它会完全停下来,它会等到道路畅通了才小心翼翼地继续向前行驶。我不知道你会怎样做,但是我可以说下我会怎样做,没有人看到停车标志时会完全停下来,现在通常的做法是踩着刹车向前停停走走,走走停停这样。
你可以说,人类的驾驶方式有些鲁莽,也有些愚蠢。
如果和前车不保持足够的安全距离,你就会增加追尾的风险。如果在停车标志前不完全停下来,你就会增加撞到另一辆车或者撞到行人的风险。
如果以图灵测试的方式来辨别是否为自动驾驶汽车,你可以站在人行道上,看着从你身边驶过的车辆,通过观察这些车辆的行驶行为,你就可以判断哪些是自动驾驶汽车,哪些是人类驾驶的汽车。
这个听起来很熟悉吗?
应该听起来很熟悉,因为这个和刚才提到的那个计算精度的问题基本上是一样的。
那怎样解决这里的驾驶问题?
一个方式是引入上文定义的人工智障行为。
首先,你可以通过设置,让车载人工智能系统故意缩短和前车的安全距离,让它像人类一样驾驶(撞向其他汽车)。相似的,我们可以修改人工智能系统,让它在看到停车标志时也走走停停。这些都可以轻松实现。
这样,观察自动驾驶汽车和人类驾驶汽车的人就不能够区分这两类车辆了,因为这两类车辆都以同样的充满错误的方式行驶。
在人类对自动驾驶汽车是否智能的看法方面,这似乎是解决了一个问题。
但是,稍微等一下,我们这样做岂不是把人工智能系统变成了一位承担更大风险的驾驶员吗?
我们想要复制和扩散这种由人类危险驾驶行为而导致的车祸吗?
理智一点来看,当然不是。
因此,我们应当转到人工智障的第二个定义,也就是从实质上将这些“愚蠢”的驾驶方式融入人工智能系统,好让人工智能在适当的时候利用这些愚蠢元素,并且让人工智能系统在需要的时候,能够足够意识到这些愚蠢元素,从而避开或者减少危险。
自动驾驶汽车不能盲目地像人类驾驶员那样包容错误驾驶行为,人们应当让人工智能系统足够发达到能应对人类驾驶员的缺点,成为一位适当的防御性的驾驶员,并且在行车环境合理时,人工智能系统本身能够利用好这些人类驾驶员的缺点(想了解更多细节,请阅读我这里的博客)。
结论
关于当今人工智能系统,一个最不言而喻的秘密就是它没有任何常识性推理的能力,也不具备人类所拥有的任何推理能力(很多人把这类人工智能称为人类通用智能,或者 AGI:Artificial General Intelligence)。
因此,有些人会认为当今的人工智能更接近于人工智障的一面,而不是真正的人工智能的一面。
如果人类有着智慧和愚蠢的双重属性,那可以推测出,如果你想让人工智能展示出人类水平的智慧,你也需要在人工智能系统中注入同样的双重属性(尽管,有些人说人工智能系统没必要完全复制人类的属性)。
在当今的公路上,我们正在看到越来越多的所谓人工智能自动驾驶汽车,但是,这些人工智能系统并没有感知能力,也没有任何接近感知能力的地方。
自动驾驶汽车只有在智能阶梯上爬得更高才能获得成功吗?
现在还没有人知道答案,但是问这个问题当然也不傻。
原文链接:
评论