本文是“#揭开AI神秘面纱#”系列文章的一部分,该系列文章(试图)消除围绕AI的术语和流言的歧义。
人工智能通常被解释为人工狭义智能(ANI)、人工通用智能(AGI)和人工超级智能(ASI)。尽管这个奇怪的概念框架没有提供任何真正的价值,但它还是引入了许多有益的讨论。
首先也是最重要的是,对分类的抱怨——正如我将要做的——价值有限,因为类别是相似和不同的,这取决于我们如何分类事物。例如,如果我们希望通过操纵属性进行比较,天鹅和小鸭是相同的。所有的差异都是没有意义的,除非我们对这些差异有一些先验知识。本文将从业务角度解析这些令人疑惑的类别。
狭义人工智能(ANI,Artificialnarrowintelligence)经常与弱人工智能(weakArtificialintelligence)混为一谈。加州大学(UniversityofCalifornia)教授、哲学家约翰·塞尔(JohnSearle)在他年的开创性论文《思想、大脑和程序》(Minds,Brains,andPrograms)中解释说,弱人工智能将是任何既狭隘又肤浅的智能解决方案。塞尔解释说,这样的研究将有助于测试关于大脑部分的假设,但不是心智。ANI将这种情况减少了一半,使研究人员能够专注于狭隘和肤浅的研究,而忽略了关于心灵的假设。换句话说,ANI净化了智能和思想,没有做太多的东西只是让人工智能“成为可能”。毕竟,一切都是狭隘的,如果你足够用力地斜视,任何东西对智力来说都是表面上的相似。
通用人工智能(AGI,Artificialgeneralintelligence)是许多人在考虑人工智能时所设想的理想解决方案。虽然研究人员研究的是狭隘和肤浅的问题,但他们谈论的是AGI。AGI代表了人工智能的单一故事,可以追溯到20世纪50年代,而在过去十年中有所复兴。关于解决方案,AGI暗示了两件不应该应用于以业务为中心的问题解决的事情。首先,程序具有人类智能的一般能力(也许是所有人类智能)。其次,AGI是一个一般的问题解决者或一张白纸,这意味着任何关于问题的知识都是修辞上的,并且独立于解决该问题的策略。相反,这些知识依赖于一些与自然智力的多维结构有关的模糊的、定义不清的能力。如果这听起来很浮夸,那是因为它确实如此。
超级人工智能(ASI,Artificialsuper-intelligence)是实现AGI目标的副产品。人们普遍认为,普通智能将引发“智能爆炸”,从而迅速引发超级智能。由于递归自我完善,ASI被认为是“可能的”,其极限只受程序无意识的想象的限制。ASI将加速赶上并迅速超越全人类的集体智慧。ASI唯一的问题是没有更多的问题了。
牛津大学学者尼克·博斯特罗姆(NickBostrom)声称,当机器在科学创造力、普遍智慧和社交技能等各个领域都比最优秀的人类更聪明时,我们就已经实现了ASI。博斯特罗姆对ASI的描绘具有宗教意义。像他们的宗教同行一样,ASI的信徒甚至预测了救世主第二次降临的具体日期。奇怪的是,博斯特罗姆无法解释如何创造人工智能。他的论点是倒退的,只能靠自己来解释。什么会创造ASI?谁将创建AGI?当然是别人。人工智能类别暗示了一个错误的连续体,在这个连续体的末尾是ASI,似乎没有人因为他们的无知而特别受挫。
在谈论人工智能时,我们的集体问题之一是,我们的思维根深蒂固地存在于普遍但无用的二分法中,错误的二分法创造了一种存在另一种选择的人为感觉。ANI、AGI和ASI通过呈现不存在的争论的多个方面,在各种技术之间提出了一些虚假的平衡。即使我们接受ANI的定义,忽略它的琐碎,AGI或ASI也没有什么说服力。用ANI这样一个更吸引人的名字来评价当今的技术,这是很奇怪的。我们不会把鸟比作狮鹫,把马比作独角兽,或者把鱼比作海蛇。为什么我们要将计算与人类智能或所有人类的智能进行比较(或缩放)?
任何包括AGI或ASI的解释都扭曲了现实。锚定是一种认知偏差,指个体在做决定时过度依赖最初的信息(称为“锚定”)。研究表明,即使在寻找锚点的时候,也很难避免锚点即使我们认识到AGI和ASI是严重错误或错位的,它们仍然可以扭曲现实并造成错位。我们绝不能被错误的二分法和错误的平衡所愚弄。
人工智能不是三样东西。它不是用“智力”来衡量的,也不是简单地分为三个类别的。这些类别并没有描述具体的技术、突出研究领域,或者捕获从ANI开始工作到ASI结束的一些连续体。他们是无稽之谈。人工智能是一回事:一个独一无二的、前所未有的目标,即凭空创造智能。然而,这个目标与业务永远不一致。
企业的目标不能被概括,不能吸收周围的一切,因为包括所有战略在内的企业沟通只有在不能被误解的情况下才有效。除非你打算让你的业务与人工智能的独特和前所未有的目标保持一致,否则你在称你的目标为人工智能时必须小心,因为如果你想要被理解,你现在不能说“人工智能”。随着我们把越来越多的东西称为“人工智能”,传达目的和方向的任务变得更加困难。然而,说ANI、AGI或ASI并没有帮助。这会影响交流。对技术领导者最好的建议是避免错误的连续、错误的二分和错误的平衡。正如媒体评论家杰伊·罗森(JayRosen)借用美国哲学家托马斯·内格尔(ThomasNagel)的一句话解释的那样,“虚假的平衡是一种‘无处可见的观点’。”
观点:搜索引擎对ChatGPT没有什么可害怕的
什么是人工智能“向前-向前”算法?它会取代反向传播算法吗?
深度学习的局限和挑战