诺贝尔奖与AI时代

作者: 神们自己

诺贝尔奖与AI时代0

神们自己

科普作家,著有《猫、爱因斯坦和密码学:我也能看懂的量子通信》《机器新脑》

2016年,当Alpha Go战胜世界顶级围棋选手李世石时,我第一次意识到人工智能(AI)时代的到来。于是,我创作了《机器新脑:人工智能将如何进化》一书。在该书前言中,我引用了AI研究先驱杰克·施瓦茨的话:“创造超级人工智能所需的技术,可能需要数百个诺贝尔奖作为垫脚石。”

然而,AI的发展速度远比我想象的更快。短短几年时间,Chat GPT引领的大模型技术就横空出世,成了人们日常生活和工作的重要助手。2024年,杰克·施瓦茨的预言成为现实:备受关注的诺贝尔物理学奖和化学奖都颁发给了在AI领域做出重要贡献的科学家,心甘情愿地当起了人工智能的“垫脚石”。人工智能明明是计算机领域的,但如果你细看2024年诺贝尔物理学奖给约翰·霍普菲尔德和杰弗里·辛顿两位科学家的颁奖理由,就会发现其实一点也不违和。

霍普菲尔德原本是一名物理学家,在机缘巧合下,他加入一个心理学家和生物学家组成的研究团队,专门研究“思想究竟如何从大脑中产生”的课题。他在1982年发明了“霍普菲尔德神经网络”,首次成功模拟了人类大脑的记忆机制。

霍普菲尔德发现,如果不断迭代更新神经元的参数,神经网络最终会收敛到一个稳定的状态。他借鉴了物理学中的类似概念,称之为“能量最小化”。“能量最小化”在物理世界中随处可见,就像人们常说的“人往高处走,水往低处流”。树上的苹果总是掉到地上,而不是飞到天上,因为地球引力使苹果在地上“躺平”的势能最小。同样地,当神经网络处于“能量最小化”状态时,意味着它已经记住了之前输入的训练数据,性能达到最佳状态。

霍普菲尔德用图片训练这个神经网络。由于受当时算力的限制,训练用的图片只是黑白方块组成的九宫格。如果用0代表白、1代表黑,一张图片就是9个数字组成的矩阵。神经网络训练稳定之后,达到“能量最小化”状态,此时挑一张训练图片稍加修改,比如把一个黑方块改成白方块,再输入神经网络,它的输出竟是修改之前的原图!这证明神经网络和人一样有了记忆能力,能够“记住”图片,并“联想”到最接近的数据。

如今的人工智能当然比“霍普菲尔德神经网络”复杂很多,但本质是一样的:所谓“AI训练”,就是将海量数据输入模型,通过不断地修正和更新,直到模型“收敛”——也就是达到“能量最小化”状态。可以说,AI的底层原理和物理学思想有着异曲同工之妙。

如果说霍普菲尔德堪称人工智能科学的祖师爷,那么杰弗里·辛顿就是现代生成式人工智能的奠基人。“霍普菲尔德神经网络”虽然能记住数据,但无法生成新的数据。而现代生成式AI,如Chat GPT这样的大模型,却能根据用户的问题“随机应变”,生成互联网上搜不到的全新内容。这一能力源于辛顿提出的“波尔兹曼机”。

物理学中,波尔兹曼分布描述了在一个由大量粒子组成的热力学系统中,粒子处于某个能量状态的概率和温度的关系。比如由无数分子组成的空气,当温度较低时,大多数的分子运动缓慢,少量分子能获得高动能;当温度升高时,分子平均运动速度更快,更多的分子能获得高动能。波尔兹曼分布能定量计算出在某个温度下,到底有多少比例的分子具备多少份额的能量。

如果物理世界的大量粒子遵循波尔兹曼分布规律,那么一个大型神经网络中的神经元也遵循着类似规律吗?于是,辛顿借(照)鉴(抄)了波尔兹曼分布公式,他把能量E替换为神经网络的能量函数,用温度T来控制随机性。训练初期,他使用高温让系统更随机,可以广泛探索状态空间。随着训练趋于稳定,他逐渐降温让系统来到低能量状态。这个降温的办法使模型更容易收敛到最佳参数。从此,深度网络训练问题得到了解决,AI深度学习迎来了复兴。几乎所有现代AI都和辛顿的“波尔兹曼机”一样,使用概率分布来控制模型的随机化输出。所以你问Chat GPT同一个问题,它每次的答案都不太一样。

人工智能不仅仅是计算机编程,而是融合了物理学、数学、脑神经科学等多个领域的交叉学科。在大模型崛起之后,通用人工智能很可能在几年之内就会问世,而出现在科幻电影中的“超级人工智能”也不再是可望而不可即的幻想。

2024年7月,某研究机构用全套高考真题测试7种AI,其中文科最高成绩546分,已达一本分数线,理科最高成绩468分,达到二本分数线。等你参加高考时,AI很可能已经具备大学本科生甚至研究生的智力水平了!未来需要的人才,不是只会解题的“做题家”,而是会提出问题、创造需求、为AI技术找到应用场景的人。

怎样与加速进化的AI共存发展?这是未来的你需要持续思考的问题。

上一篇: 问题星球
下一篇: 分行的艺术

经典小说推荐

杂志订阅

友情链接