诺贝尔奖花落AI领军者芯片解密
2024年诺贝尔物理学奖的揭晓,芯片解密将AI在物理学领域的应用推向了高潮。John J. Hopfield和Geoffrey E. Hinton的获奖,不仅是对他们个人成就的认可,更是对AI在解决科学难题中所扮演角色的肯定。
一个疑问是,AI为什么会获物理诺奖?这届物理诺奖的“出其不意”背后,到底透露了哪些信息?以及,AI和如今正在进行的产业数字变革有哪些关联?
一、物理学与AI的深层联系
想要知道为什么这俩人能够获得物理诺奖,首先需要搞明白,这俩人究竟做出了哪些成就。
“利用物理学工具,开发出了当今强大机器学习技术的基础方法。” 这是评委会表彰时的一段话。从字面上来看,很好理解,即用基于物理打造了AI技术的底层方法论。
霍普菲尔德在1982年创造出联想神经网络,现在通称为霍普菲尔德网络(Hopfield network),可以存储并重现图像和其他数据模式的关联记忆技术;辛顿是反向传播算法和对比散度算法的共同发明者,和深度学习的积极倡导者,被誉为“深度学习教父”或“AI教父”。
我们尝试用通俗易懂的语言来解释两位获奖者的发明。
想象一下,一堆磁铁可以自由地翻转自己的北极和南极。这些磁铁被杂乱无章地放置在一起,但有一种特殊的规则:如果一个磁铁的北极对着另一个磁铁的南极,它们就会互相吸引;反之,如果两个磁铁的同极相对,它们就会互相排斥。这就是所谓的自旋玻璃,一种物理学中的模型,用来描述这种混乱而又相互影响的粒子集合。
现在,用这个想法来构建一个“记忆存储器”。每个小磁铁就像一个神经网络中的神经元,它们可以被设置为活跃(北极)或不活跃(南极)。当你把这些“神经元”放在一起时,它们会互相影响,最终达到一种稳定状态,就像磁铁最终会排列好,使得排斥力最小化一样。
Hopfield网络就是这样一种模仿大脑记忆方式的神经网络。 你可以把一些模式(比如一串数字或者一张图片)“教”芯片解密给这个网络,网络中的“神经元”就会调整自己,以便在未来能够回忆起这个模式。这就像是把一堆磁铁按照特定的方式排列好,然后它们就能记住这种排列,即使被打乱,也能重新恢复。
再谈谈Hinton的发明。
想象一下,一堆乐高积木建造一个复杂的模型。但最终模型的样子并不清晰,不知道如何一步步搭建。这就是训练神经网络时面临的问题:我们有很多数据,我们知道最终想要的结果,但不知道如何调整网络中的连接,以便它能正确地处理数据。
反向传播算法就是一种解决方法。它就像是一个可以撤销错误步骤的工具。每次搭错了一块积木,这个工具就能让搭建者回到上一步,调整积木的位置,不断尝试。通过不断地试错和调整,最终搭建出正确的模型。在神经网络中,这意味着可以逐步调整网络中的连接,以便它能够正确地识别数据中的模式。
玻尔兹曼机则是另一种灵感来源于物理学的神经网络。它使用了统计物理学中的一个概念,即在一定温度下,粒子会以某种概率处于不同的状态。在玻尔兹曼机中,每个“神经元”就像一个粒子,它们可以处于活跃或不活跃的状态,并且这些状态会根据网络中的整体能量状态来调整。通过这种方式,网络可以学习如何从数据中提取有用的信息,就像统计物理学帮助我们理解粒子的行为一样。
简而言之,芯片解密Hopfield网络和Hinton的工作都是将物理学的概念应用于神经网络,以模拟大脑的工作方式,让计算机能够学习、记忆和识别复杂的数据模式。
更重要的是,Hopfield、Hinton展示了物理学原理如何被应用于理解和模拟大脑的工作方式,这是一种跨学科的创新。这种创新不仅推动了AI技术的发展,也为物理学提供了新的研究工具和视角。
本公司声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本公司赞同其观点,本公司亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本公司删除。