未来AI进化和突破方向:跨神经科学与人工智能融合

科技太和君 2024-08-10 01:18:42

随着生成式人工智能AIGC被广泛试用,大多数人都对AI的前景感到兴奋,但是他们却忽视了它的成长与进化。如果想要拥有真正的智能机器,能够理解其环境、持续学习并每天为人们提供帮助,这就需要将神经科学应用于人工智能深度学习。然而,除了少数例外,这两个学科几十年来一直令人惊讶地处于孤立状态。

20世纪三十年代,唐纳德·赫布等人提出了神经元如何学习的理论,启发了第一代深度学习模型。随后在20世纪五六十年代,大卫·胡贝尔和托斯顿·威塞尔因研究大脑感知系统的工作原理而获得了诺贝尔奖。这对卷积神经网络产生了深远影响,而卷积神经网络是当今人工智能深度学习的重要组成部分。

虽然神经科学作为一个学术领域在过去二、三十年里取得了喷发式的进展,但最近的突破在当今人工智能系统中几乎没有显而易见的落地成果。如果你问今天的人工智能专业人士,他们显然不知道该领域的这些成就,也不明白最近的神经科学突破会对人工智能产生什么影响。然而未来人工智能系统要想突破科学和知识的界限,就必须改变这一点。

例如,我们的大脑中有一个通用电路可用作人工智能的模板。对于一个普通成年人来说,人脑消耗的功率约为20W,不到一个灯泡一半的功率消耗。今年一月份,ChatGPT所消耗的电力大约相当于 175000人一个月的用电量。鉴于ChatGPT训练进度,目前它每月消耗的电力相当于1000000人的月用电量。马萨诸塞大学阿默斯特分校的一篇论文指出,“训练一个人工智能模型,其生命周期所排放的碳相当于五辆汽车的碳排放量。” 并且当模型通过反复训练改进时,能量的消耗会急速增加。除了能源消耗外,自2012年以来,训练这些人工智能系统所需的算力资源每三、四个月就会翻一番。从能源经济角度来讲,这显然是不可持续的。

与人工智能系统不同,大脑可以理解其环境的结构,从而做出复杂的预测并执行更智能的判断。人类与AI在学习上的不同在于前者是持续、渐进地学习;相反,代码并非是像人类那般真正地“学习”。如果AI模型今天犯了错误,那么它将继续重复该错误,直到使用新数据进行覆盖训练。

尽管跨学科合作的需求在不断增加,但市神经科学家和人工智能专家之间的知识结构差异使得沟通变得困难。在神经科学中,实验需要大量细节,每项发现都可能需要两到三年的漫长记录、测量和分析。当研究论文发表时,其中的细节对于人工智能专家而言往往更像是理论性的文章。

如何才能弥合这一差距?首先,神经科学家需要退后一步,从大局的角度阐述研究目的,这样他们的发现对人工智能专家来说才更有意义。其次,需要更多具备人工智能和神经科学混合知识的研究人员来填补这两个领域之间的空白。通过跨学科合作,人工智能专家可以更好地了解如何将神经科学研究成果转化为受大脑启发的人工智能。

最近的突破证明,将基于大脑原理的研究应用于大型语言模型可以将训练效率和能源经济的可持续性提高几个数量级。在实践中,这意味着将基于神经科学的逻辑映射到运行人工智能模型的算法、数据结构和架构中,这将使得AI可以模拟大脑的运行效率一般,在相较于少的多的训练数据上快速学习。如果人们想要在扩大人工智能训练效率成果的同时保持良好的能源经济可持续性,那么这项工作就至关重要。

从天花疫苗到电灯,人类所有最伟大的突破几乎都来自于多元贡献和跨学科合作,人工智能和神经科学也必须如此。人类需要一个人工智能系统能够真正与科学家互动的未来,AI能够帮助科学家进行突破人类知识边界的实验。人类需要真正增强人类能力的人工智能系统,来帮助自身学习、工作、生活的方方面面。

通过弥合神经科学与人工智能之间的差距,使其获得更高的能源经济可持续性和训练效率,将跨学科研究和商业化、教育和实践等更多领域应用于人工智能,从而改善和增强人的智能。

0 阅读:0