这个机构预测,2027年人工智能将拥有自主性

作者: Kevin Roose

现在是2027年。强大的人工智能系统正变得比人类更聪明,对全球秩序造成严重破坏,间谍窃取了美国的人工智能机密,白宫急于报复。在一个领先的人工智能实验室里,工程师们惊恐地发现,他们开发的模型开始欺骗他们,模型不受控制的可能性加剧。

这些并不是科幻电影剧本里的场景,而是加州伯克利一家名为AI Futures Project的非营利组织所设想的场景。这个研究人工智能未来的组织在过去一年里一直试图预测,随着越来越强大的人工智能系统被开发出来,未来几年的世界将会是什么样子。

该项目由丹尼尔·科克塔伊洛(D a n ie lKokotajlo)领导,他本是OpenAI的研究员,去年因担心OpenAI胡作非为而离职。在OpenAI任职期间,科克塔伊洛撰写过详细的内部报告,介绍了通用人工智能(AGI)的竞赛可能会如何展开。离职后,他携手伊莱·利夫兰德(EliLifland)创立AI Futures Project。后者是一名人工智能研究员,曾准确作出一些AI领域的预 测。

他们的研究成果就是4月3日公开的名为《AI 2027》的报告和同名网站。该报告介绍了一个详细的虚构场景,描述了如果人工智能系统的智力水平超过人类(报告作者预计这将在未来2到3年内发生)世界将变得怎样。

如今的旧金山被人工智能热潮所笼罩,在湾区的技术圈里,对于人工智能未来将如何演变,各个派别众说纷纭。一些人工智能预测以宣言的形式出现,比如Anthropic首席执行官达里奥·阿莫代伊(Dario A modei)去年撰写的1.4万字的文章《仁爱的机器》,以及OpenAI前研究员利奥波德·阿申布伦纳(L e o p o l dAschenbrenner)发表的在决策圈广为流传的报告《态势感知》。

AI Futures Project的研究人员将他们的报告设计成预测场景—本质上,这是一部经过严谨研究后创作的科幻小说,研究人员对未来的最佳猜测被设计成了情节点。他们花了将近一年的时间,琢磨了数百个关于人工智能的预测,然后请来博客Astral Codex Ten的作者斯科特·亚历山大(Scott Alexander),将他们的预测内容叙述出来。利夫兰德表示,“我们把我们认为会发生的事情写了出来,并试着写得比较引人入胜。”

这种做法的批评者可能会说,虚构的人工智能故事更能吓唬人,而不是教育人。一些人工智能专家无疑也会反对AI Futures Project关于人工智能将超越人类智能的核心主张。

毫无疑问,该组织的部分观点是极端的,比如科克塔伊洛去年在接受采访时称,他认为人工智能有70%的可能性会毁灭人类或对人类造成灾难性伤害。科克塔伊洛和利夫兰德均与有效利他主义运动(Effective Altruism)有关联,这是一项在技术从业者中流行的哲学运动,多年来一直就人工智能技术的影响发出可怕的警告。

但同样值得注意的是,硅谷的一些技术巨头正在规划一个超越通用人工智能的世界,而且过去许多有关人工智能的看似疯狂的预测,比如机器将通过图灵测试已经成为现实。

2021年,也就是ChatGPT问世的前一年,科克塔伊洛撰写了一篇题为《2026年的样子》的博客文章,概述了他对人工智能系统将如何发展的看法。他的许多预测被证明是有先见之明的。

最近,科克塔伊洛和利夫兰德邀请我去他们的办公室—位于伯克利的联合办公空间Constellation里的一个小房间,那里有许多人工智能安全组织挂牌营业—向我展示他们是如何工作的。科克塔伊洛穿着棕褐色的军装式夹克,拿起一支记号笔,在一块大白板上写下了四个缩写词:SC>SAR>SIAR>ASI。他解释说,每一个缩写词都代表了人工智能发展的一个里程碑。

他说,按照目前的趋势,到2027年年初的某个时候,人工智能将成为超越人类的程序员。然后,到2027年中期,人工智能将成为一个超人的人工智能研究员—能够监督人工智能编程团队并提出新发现的自主智能体。然后,到2027年年底或2028年年初,人工智能将成为一个超级智能的人工智能研究员—比我们更了解构建先进人工智能的机器智能,能够自动化推进自己的研发工作—本质上就是构建更智能的他自己。他说,从那一步到人工超级智能(ASI)只有很短的距离,到那时,人类无法预料会发生什么。

我问科克塔伊洛,他觉得之后会发生什么。例如,2030年时人类生活的模样是否还能预测?伯克利的街道上是否会充斥着人形机器人?人们会给自己的人工智能女友发短信吗?我们还会有工作吗?

他凝视着窗外,承认自己也不确定。他说,如果未来几年进展顺利,我们能控制人工智能,他可以预见,未来大多数人的生活仍将基本保持不变,但附近的“经济特区”将充斥着超高效的机器人工厂,生产我们需要的一 切。

如果接下来的几年进展不顺利呢?“也许天空会被污染,人们会死去?”他冷淡地说道。“大概是这样吧。”

这样渲染人工智能预测的一个风险在于,一不小心,一个个猜想的场景可能就会变成世界末日般的幻想。另一个风险在于,由于专注于讲述一个吸引人们注意力的戏剧性故事,你可能会看不见相对无趣的结果,比如人工智能整体上表现良好,不会给任何人带来太多麻烦的场景。

我同意《AI 2 027》报告的作者关于强大的人工智能系统很快就会到来的看法,但我并不认为超人的人工智能程序员会自动掌握其他技能,从而迈向实现通用人工智能。对于那些认为人工智能的发展将是平稳的、呈指数级增长的预测,我都谨慎看待。但这种预测值得一做,如果强大的人工智能真的即将到来,我们就需要开始想象一些非常不寻常的未来。

这个机构预测,2027年人工智能将拥有自主性0

Kevin Roose

Kevin Roose是一位科技专栏作家、播客《Hard Fork》主理人,现阶段主要关注AI技术的最新科研进展。

经典小说推荐

杂志订阅