与其担心AI超越人类 不如担心低效的AI

作者:admin  发表时间:2021-01-13  浏览:32  海淘动态

AI 的发展很火热,但 AI 研究者在面对这世界的时候经常会觉得难堪。这种难堪来自于各种知名的顶尖科学权威或者企业家,其中一些警示 AI 对于整个人类物种的威胁,其中就包括霍金和马斯克。最近一个发出警示的是爱丁堡大学的教授 Alan Bundy,但他的观点却和别人不一样。通过计算机学会的杂志《ACM 通讯》表示:AI 的威胁的确存在,但威胁并不是类人智慧 AI 的出现,正好相反,威胁来自于笨拙、低效、无能的 AI。Bundy 写道:近些年来人们花费巨资打造出来的 AI 用处很有限,它们根本不是什么通用型的 AI。有人预言技术奇点会随着线性智能模型 AI 的发展而临近,就像所有物种的发展那样,AI 也会随着时间线性发展。但智能根本不是如此。智能发展的模型更像是一个多维度的空间模型,随着时间递进,智能会往多个方向发展。而超人 AI 威胁说之所以吸人眼球就是因为没人站出来发出反对的声音。人们拥有通用型的智慧,看到电视上 Alpha Go 在围棋中战胜人类就理所当然认为 AI 有胜人的智慧。Alan Bundy 之所以有这样的立场或许也和他的经历有关。当罗纳德·里根在八十年代提出星球大战计划时他就是反对者之一。星球大战计划试图利用一套全自动的 AI 系统检测苏联的导弹发射。但问题是当时根本没有这种能力的 AI,错误的假设会导致鸟群就能激活星球大战计划的检测系统,进而引发核战争。Bundy 认为这就是典型的人们过度估计 AI 能力的绝佳例子。星球大战计划概念图现在的危险很像八十年代,决策者和普罗大众看到 AI 在某个狭窄领域的惊人成就,却不明白当它们面对更宽泛的任务时会有多烂。
海客讨论(0条)

头像

0/300

微博发布

部分图片内容来自于网友投稿

512.7ms