九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?


为了深入了解复杂的神经数据,我们必须转向一种数据驱动的模式,用海量信息(数据)训练大模型。

为此,我们邀请了九位计算神经科学和神经数据分析领域的专家,分享他们的见解。

人们常说,大脑是宇宙中最复杂的物体。不论这一说法是否属实,它都指出了一个不可否认的现实:神经数据极其复杂且难以分析。

神经活动是依赖情境且动态变化的,它是一生中多感官交互和学习的结果;神经活动具有非线性和随机的特征,这归因于突触传递和树突处理的特性;

神经活动是高维度的,它源于跨越不同大脑区域的众多神经元;神经活动还是多样化的,它记录着多种不同的物种、回路和实验任务。

这种复杂性带来的实际结果是,如果在特定且高度受控的实验设置下采集数据,并进行分析,其结果不太可能具有普适性(或泛化能力)。

面对大脑这样动态、非线性、随机、高维的系统,我们不可能控制所有潜在相关的变量,那对这些数据进行训练时,泛化失败的可能性便会成倍增加。

如今,我们正从刻意简化的实验走向更贴近真实情境的自然行为与刺激,这也意味着我们所要分析的系统维度在进一步扩大。

那么,我们如何避免开发出一系列与特定实验环境挂钩、彼此互不相干的模型,而在开发通用神经计算模型方面取得进展呢?

我们认为关键在于拥抱神经数据的复杂性,而不是试图回避它。要做到这一点,神经数据就需要由人工智能(AI)来分析。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

艾娃·戴尔

Eva Dyer

佐治亚理工学院生物医学工程副教授

领导着 NerDS 实验室,该实验室专注于数据为中心的人工智能、表示学习和科学 AI。

她的实验室开发计算方法,用于发现大脑组织和结构的原理,以及整合多模态数据集,揭示神经结构与功能之间的联系。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

布莱克·理查兹

Blake Richards

麦吉尔大学计算机科学学院副教授

加拿大 CIFAR 人工智能主席,并是魁北克人工智能研究所 Mila 的核心学术成员。他的研究是神经科学和人工智能的交叉。

他的实验室研究适用于自然和人工智能体的通用智能原则。

他主导制定了 2019 年发布的“神经科学深度学习框架”,该框架帮助塑造了神经科学界关于如何从基于目标函数、学习规则和电路架构的角度研究神经回路的讨论。

惨痛的教训

事实上,AI已经在分析和建模复杂、非线性数据方面发挥了极大作用。

例如,2024年的诺贝尔化学奖就授予了AI研究人员,他们的模型帮助我们最终解决了预测蛋白质折叠的问题。

这是一个类似的复杂分析任务,而传统的建模技术在这方面未能取得重大进展。

类似地,AI已在基因组学、气候科学、流行病学等对海量数据要求极高、分析极其复杂的领域中展现了非凡潜力。

对神经科学而言,已有初步迹象表明,AI似乎有望在各种棘手的分析任务中帮助我们更上一层楼。

然而,若要有效地将AI应用于神经数据分析,我们必须接受“惨痛的教训”(the bitter lesson)。这个理念最早由强化学习先驱、AI 研究员Rich Sutton提出。

他在2019年的一篇博客中指出,AI中最成功的方法往往足够通用,能够“随着计算量的增加而持续扩展”。

换句话说,那些为解决特定问题而精心设计的、定制化的解决方案,

往往会输给那些可以部署在互联网规模数据(数万亿数据点)和大脑规模人工神经网络(数万亿模型参数或“突触权重”)上的通用解决方案。

Sutton建议,我们需要认识到“心智的实质无比复杂;

我们应该停止尝试寻找简单的方式来思考心智的内容,这就好比用简单的模型概括宇宙、物体、多智能体或对称性。”换句话说,要拥抱复杂性。

我们相信,“惨痛的教训”也同样适用于神经数据分析。首先,没有任何理由认为神经数据会是AI各领域观察到的普遍趋势的例外。

事实上,迄今为止的证据也说明神经数据分析符合AI应用的规律。其次,神经数据的复杂性恰恰说明,规模化能为它带来极大益处。

如果我们要拥抱神经数据的复杂性,并能泛化到新的情境,那么我们必须转向一种数据驱动的模式,采用在海量数据上训练的大型模型。

事实上,有一种观点认为我们无法从复杂的神经数据中提取有意义的信号,已经阻碍了神经科学研究实际应用的进展。

而在这些数据上进行大规模训练的AI模型,有可能解锁我们甚至尚未完全设想的众多下游应用。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

Arina Kokoreva

拥抱复杂性的愿景实践

我们如何完全解锁大脑数据的复杂性,并扩展我们对心智的理解?

首先,我们需要能够理解多模态数据集的模型,这些数据集应当结合了来自不同个体、任务甚至物种的电生理学、成像和行为数据。

其次,我们需要基础设施和计算资源来推动这一变革。

正如AI的突破是由高性能计算推动的一样,神经科学也必须投资于能够处理大型通用模型训练和微调的基础设施。

最后,规模化需要数据,大量的数据。

我们需要跨越物种、大脑区域和实验条件的大型、高质量数据集,并在自然的、非受控的环境中捕捉大脑动态,以充分反映大脑功能的丰富性和可变性。

通过结合这三个要素——模型、计算和数据——我们可以扩展神经科学的规模,并揭示大脑功能的基本原理。

得益于国际大脑实验室(International Brain Laboratory)、艾伦研究所(Allen Institute)和美国国立卫生研究院

(U.S. National Institutes of Health)的 BRAIN 计划(BRAIN Initiative)等项目,我们开始看到大规模数据集和开放数据存储库(如DANDI)的力量。

这些努力正在为构建统一模型奠定基础,并推动数据标准的制定,从而使数据共享和规模化成为可能。

神经数据的复杂性恰恰说明,规模化能为它带来极大益处。

但我们目前仍未完成这一目标。太多的数据仍然被困在硬盘里,隐藏在各个实验室中,既没有对外共享,也未在原始用途以外得到充分探索。

太多的模型仍然是小规模和定制化的。为了克服这一点,我们需要一个转变,建立一种新的合作文化,并构建激励机制来鼓励数据共享及其潜在的变革力。

我们相信,将大规模AI 模型应用于神经分析的前景,或许能成为激发变革的火花。我们向全领域发出呼吁:让我们携手努力,构建下一阶段所需的共同基石:

(1)强大的全球数据档案库:我们需要继续扩展共享的、开放访问的存储库,以便汇集、标准化和扩展来自世界各地的神经数据。

如此一来,我们可以极大地推动开发用于理解大脑功能、预测大脑状态和解码行为的强大AI工具。这不仅仅是呼吁数据共享,更是塑造神经科学未来的号召。

然而,建立和维护如此庞大的档案库需要持续的经费投入。我们必须明确:由谁来承担这些规模化数据存储与管理的费用?

(2)专门用于在神经数据上训练AI模型的大规模计算资源:大规模训练AI模型需要使用大量的计算资源。

在数万亿数据点上训练一个拥有数十亿或数万亿突触连接的人工神经网络,所需的GPU小时数,

对于任何单个学术实验室甚至研究机构来说都是高得令人望而却步。

正如天文学家等其他科学界为大型项目汇集资源一样,神经科学家也需要找出联合的方式,为我们面临的任务创建所需的计算资源。

(3)专业的软件开发人员和数据科学家: 对于大多数神经科学实验室来说,存储、标准化、预处理以及分析数据的成本巨大。

很多实验室缺乏既精通技术又能投入大量时间的专职人员。

此外,许多神经科学实验室还在不断地流入新数据,我们如何知道应该优先处理哪些数据以用于此类工作?

再加上,构建大规模神经网络需要一个懂得如何协同工作的专业工程师团队,而不是一群各自使用自己定制的数据处理脚本的研究生。

正因如此,我们需要专业的工程师和工作人员,他们能够帮助简化数据的标准化和存储流程,并帮助大规模构建AI模型。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

多模态模型:要想让努力成功,必须具备能够理解混合了电生理学、成像和行为结果的数据库。图源:Danielle Ezzo

总之,在多样化数据上训练的大规模模型可以实现跨物种泛化,帮助我们理解大脑功能的更为保守、通用的原理。

它们还可以促进跨任务学习,使研究人员能够预测神经回路在新的情境下如何响应。

应用范围从基础科学扩展到临床和商业领域,在这些领域,规模化的模型可以改进脑机接口、心理健康监测以及神经系统疾病的个性化治疗。

我们相信,这些益处值得我们为扩展共享神经科学琢磨出新的机制和策略。

但研究人员对于如何最好地为神经数据寻求大规模AI方法,以及这种方法可能产生何种见解,存在分歧。

与蛋白质折叠不同,汇集数据将需要一个由表面上独立的研究人员组成的网络,相关人员需要走到一起,为共同的愿景而努力。

为了获得该领域的不同观点,我们邀请了九位计算神经科学和神经数据分析专家就以下问题发表看法。

关键问题:

1.大规模AI能为神经科学做些什么?

2.在尝试创建“神经领域的AlphaFold”时,我们面临哪些主要障碍?

3.规模化的局限性是什么?在哪些情形下更需要定制化的解决方案?

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

盖尔·查普斯

Gaëlle Chapuis

国际脑实验室(IBL)技术经理

IBL是一个由21个机构和75多人组成的全球联盟,旨在研究大脑活动模式如何导致决策。Chapuis位于日内瓦大学,监督着一个分布在全球五个国家的工程师团队。

她的团队为科学家提供支持,创建了专业化的工作流程,这些工作流程被大规模采用。她还监督联盟的推广工作。

迄今为止,已有40多个在IBL内外进行的研究项目受益于这些技术和组织发展。

大规模人工智能为神经科学提供了变革性的潜力,但要实现这一愿景,关键在于克服重大的数据挑战。

这些挑战涵盖多个方面,从数据获取和标准化到基础设施和激励机制等。

一个根本性问题是,现行的学术奖励体系更看重原创性发现,而不是整理和共享高质量数据集这项细致的工作。

如果缺乏明确的激励措施,神经科学领域许多庞大而复杂的数据将继续处于孤立状态、无法被充分利用或格式不统一,这使得跨研究整合这些数据变得困难。

缺乏广泛采用的数据共享标准,进一步加剧了构建基础人工智能模型的难度,而这些模型依赖于整合来自多个来源的多样化数据集。

为了在神经科学中充分利用人工智能,我们必须解决几个关键问题。

首先是数据的可及性,需要专门的外展活动、培训和资源,确保可用数据集不仅可以成功发布,还能让更广泛的社群可以轻松发现和使用。

如果没有系统性的努力来推广和维护共享存储库,宝贵的数据就有被忽视的风险。

其次,协调统一不同的数据集对于扩展人工智能模型的规模至关重要。

在不同机构间统一数据格式和元数据,可以减少整合障碍,使研究人员能够构建更稳健、更具泛化能力的人工智能系统。

开发和实施这些标准的全球性努力,对于防止大规模项目中的碎片化和低效率至关重要。

第三,神经科学数据的复杂性和巨大体量要求我们具备高性能计算、多模态分析和高级可视化技术方面的专门知识。

要管理好这些大型数据集,需要两方面的持续投入:一是基础设施;二是有能力应对人工智能驱动研究所带来的技术挑战的人员。

除了技术解决方案之外,为了支持长期的数据管理,结构和文化也需要有所转变。

资助机构和研究机构应优先投入资源用于持续的数据整理工作,为科学数据管理专家提供职业发展路径,并制定认可和奖励数据共享贡献的政策。

(要了解更多关于研究软件工程师在学术神经科学中可以扮演的角色,请参阅《神经科学需要为软件工程师提供职业发展道路》*。)

推动基础设施建设和标准化工作的协作,将是释放人工智能在神经科学领域全部潜力的关键。

* https://www.thetransmitter.org/craft-and-careers/neuroscience-needs-a-career-path-for-software-engineers/

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

特伦斯·赛诺夫斯基

Terrence Sejnowski

索尔克生物研究所的弗朗西斯·克里克讲座教授

领导着计算神经生物学实验室,并且是Crick-Jacobs理论及计算生物学中心的主任。

同时他也是加利福尼亚大学圣地亚哥分校的生物学教授,在那里他共同指导神经计算研究所和NSF学习时间动态中心。

神经信息处理系统基金会主席,Neural Computation杂志的创始主编。作为计算神经科学的先驱,西乔夫斯基的目标是理解连接大脑和行为的原理。

他的实验室使用实验和建模技术来研究突触和神经元的生物物理特性以及大量神经元网络的群体动力学。

他在神经网络和计算神经科学领域的研究具有开创性,他与杰弗里·辛顿共同发明了玻尔兹曼机。

著有The Deep Learning Revolution,ChatGPT and the Future of AI: The Deep Language Revolution,合著有The Computational Brain。

他与Barbara Oakley在Coursera上教授Learning How to Learn: Powerful mental tools,是世界上最受欢迎的在线课程。

传统上,神经元是在离散任务的背景下被研究的,例如对视觉刺激的反应,此类实验选用的刺激种类和反应形式有限,让我们能够相对轻松地对记录数据加以解释。

但是,神经元能够以多种不同的方式参与多种任务,因此如果我们仅根据单一任务得出的结论,往往会被其局限性所误导。

现如今,我们可以同时记录来自多个大脑区域的数万个神经元,但神经科学家们仍在沿用那套“旧式”的单一任务范式。

为突破这一瓶颈,有两种解决思路:其一,训练实验动物完成多样任务,但这对某些物种(如猴子)而言,单是学习一种新任务就要耗费数周到数月。

其二,让动物在更长时间内执行更复杂、更接近自然环境的任务。但在现实世界中,自然行为主要是自发产生和互动的。对于社会行为尤其如此。

研究这类自发产生的、连续的行为,比研究严格受限的、反射性的任务要困难得多。例如,思考本身就是一种自发产生的行为。

如果一个大型语言模型(LLM)能在自然条件下,利用海量的大脑记录以及伴随的行为(包括身体和眼动追踪、视频、声音及其他模态数据)进行训练,

结果会怎么样呢?LLM是自监督的,可以通过预测跨数据流中缺失的数据段来进行训练。

从传统的实验角度来看,这可能不具有科学实用性,但它将彻底改变大脑的研究方式。不过,一旦感官输入停止,LLM中的活动就会终止;它没有自发产生的活动。

另一个限制是所需的数据量,并非所有数据都能从单一个体收集。

探索替代方法的一个好起点是研究小规模的大脑。

果蝇大约有10万个神经元,可以在监测其行为的同时,通过对神经信号敏感的荧光染料发出的闪光来进行光学记录。

Ralph Greenspan和我收集了果蝇在自发行走时的近乎全脑的记录。

冲绳科学技术大学院大学(Okinawa Institute of Science and Technology)的 Gerald Pao 最近使用了一种基于动力系统理论的新方法,

将这些记录“下载”到一个生成模型中。

这个名叫收敛交叉映射(Convergent Cross Mapping, CCM)的新方法,能够提取记录到的神经元与行为之间的因果关系。

这种方法产生了一个简化的图形模型,赖捕捉控制行为的低维大脑轨迹。

训练一个CCM行走果蝇模型只需要几分钟的同时神经和行为记录。该模型的自发行为和神经活动与在真实行走果蝇中观察到的几乎无法区分。

因为所需的数据量大大减少,来自单个大脑的多种行为可以被“下载”到同一个生成模型中。

我们目前也在将CCM运用于在虚拟现实驾驶游戏中采集到的人类功能性核磁共振成像(fMRI)数据。这个生成模型将能够在这个虚拟城镇中驾驶并递送包裹吗?

我们最终将能够“窃听”到人类自发产生的思维活动吗?让我们拭目以待吧!

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

图片:生成模型:将来自虚拟现实视频游戏的人类功能性核磁共振成像(fMRI)数据转化为时间序列,

并使用收敛交叉映射(Convergent Cross Mapping, CCM)进行分析。该生成模型用于预测和生成类脑活动和行为。

Pao等人,《可实验验证的整体大脑流形重现行为》(Experimentally testable whole brain manifolds that recapitulate behavior),arXiv:2106.10627,2021年。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

卡尔森·斯廷格

Carsen Stringer

霍华德·休斯医学研究所詹妮娅研究基地研究组组长

实验室使用机器学习和深度神经网络来可视化大规模的神经记录,研究皮质回路中的可塑性规则以及感觉和运动表示。

此外,我们的实验室还开发了用于细胞分割的通用算法,这些算法能够快速准确地处理约50,000个神经元记录。

正如Rich Sutton所描述的那样,AI领域的大型“通用”模型,

例如大语言模型(LLMs),需要用数万亿词汇进行训练(这比人类接触的词汇量高出几个数量级),然后才能熟练掌握写作等任务。

这表明AI的训练过程和学习规则与人类的学习方式截然不同。

如果我们能弄清大脑中的一些学习规则和范式,我们或许就能缩短这些模型的训练时间和减小它们的规模。

更重要的是,这些见解可能有助于我们理解在神经系统疾病中学习过程是如何被打乱的。

然而,弄清神经学习规则并非易事。大脑是复杂的,神经活动是高维度的;例如,在小鼠和灵长类动物的皮层中,对视觉刺激的反应就跨越了数百个维度。

这些众多的维度只有在长时间获取且涵盖众多神经元的数据集中才能得到充分的采样。此外,为了推断学习规则,我们需要在整个学习过程中收集这些数据集。

基于这些数据集,我们可以拟合贯穿学习过程的模型,并研究模型权重如何随学习而变化。

如果我们拟合一个非常大的模型,正如Dyer和Richards所提议的那样,就会有许多权重可能发生变化,这使得识别学习规则变得具有挑战性。

一个大型的黑箱模型不太可能提供关于神经计算是如何执行的深入见解。

这些中到大型的模型作为起点可能是必要的,因为它们通常更容易拟合且表现良好,但随后可以通过权重剪枝、稀疏性惩罚或其他策略来减小这些模型的规模。

较小的模型将更容易可视化,并且可能更好地对应大脑生理学,从而产生关于学习规则和神经回路架构的可检验假设。

我们在神经科学领域的最终目标是理解大脑如何运作,而不是构建最佳的预测模型。因此,我们可能需要探索多种策略,而不仅仅是构建大型基础类模型。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

克洛蒂娅·克罗帕斯

Claudia Clopath

伦敦帝国学院计算神经科学教授

圣三一威康奈尔神经回路与行为研究中心的研究负责人。她开发数学模型来模拟突触可塑性,并研究其在人工神经网络中的功能意义。

实验室:https://cclopath.bg-research.cc.ic.ac.uk/

理解大脑是社会面临的最紧迫挑战之一,尤其随着人口老龄化,延长大脑健康变得日益紧迫。然而,大脑的复杂性带来了巨大的障碍。

神经科学的进步使我们能够记录下比以往任何时候都更多的神经元活动,并将其与行为直接联系起来,但我们迫切需要有助于解读这些快速积累的数据的工具。

在这样的背景下,研究界若能协力构建神经科学基础模型,其前景令人激动。

这类模型有望彻底改变该领域,且应用范围广泛,从实现跨物种和跨个体的见解转化,到充分释放脑机接口和个性化医疗的潜力。

除此之外,基础模型还可以显著加速实验研究。例如,它们可以用来预测实验结果,使研究人员能够在实际进行实验之前就识别出哪些实验最具有信息价值。

这将节省时间并优化发现过程。

但摆在我们面前的挑战也不容忽视。我们是否有足够高质量且多样化的数据来训练这类模型?

我们能否成功地整合多种神经数据模态,并以此方式提升模型的泛化能力?解决这些问题对于构建在不同情境下都稳健且实用的模型至关重要。

此外,神经科学模型不仅仅是用于预测的工具;它们还能帮助我们获得关键的机制性见解。

通过将基础模型的可解释性技术与能够抓住观测现象本质的简化机制模型相结合,我们有望弥合数据驱动的预测与机制性理解之间的鸿沟。

凭借这种预测和机制性洞见的双重能力,基础模型有望成为神经科学研究和应用的基石。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

康纳德·科尔丁

Konrad Körding

宾夕法尼亚大学的神经科学教授

Neuromatch和严谨社区(Community for Rigor)的联合创始人。

他因在运动控制、神经数据方法和计算神经科学等领域的贡献,以及他对开放科学和科学严谨性的倡导和贡献而闻名。

他的实验工作涉及运动学习和运动控制,并将这些现象与贝叶斯思想联系起来。最近,他专注于分析神经数据的方法和获取大型神经数据集的方法。

作为一名神经科学家,我一生中最深刻的经历之一,是在苏黎世神经信息学研究所的地下室里,观摩Kevan Martin进行的感受野映射实验。

当他在动物眼前移动明亮的条纹时,我能听到一个神经元的活动声音。只有当条纹处于正确的位置,即该神经元的感受野时,它才会活跃。

从这类实验中,诞生了一个关于视觉系统如何工作的模型:一组神经元提取线条,随后一组提取曲线,再经过几个步骤,最终一组神经元能够识别物体。

这种将大脑视为由分组到不同脑区的简单、特化神经元集合的观点,对整个领域和我个人都产生了深远的影响,

它不仅催生了神经科学的主流理论,也顺带促进了人工智能领域的发展。

然而,多年来,我们发现神经元并非是专门清晰地提取人类可理解特征的单元,而是纠缠在一个多功能、情境依赖的处理网络中。

神经编码中那种最美好的简洁图景,那个神经科学逻辑的基石,已经破灭了。

这种对复杂性日益增长的认识,迫使我们重新思考如何理解神经数据。于是,人工智能登场了。

AI出人意料地擅长描述高维度、异质性的神经数据,并解决工程问题,例如解码失去说话能力的人的语音。

在寻求理解的过程中,我们现在转向AI,不仅视其为工具,更视其为一个框架。

但AI框架真的对理解有帮助吗?与经典的机制模型不同,AI模型通常缺乏可解释的结构,它们提供预测能力,但在概念清晰度上却有所欠缺。

有些人希望能通过使用AI模型提取可解释的模型来挽救简洁性,这种方法被称为“蒸馏”。问题在于,这种简单的解释通常并不擅长描述真实世界的数据。

这就使我们得出了一个不可避免的结论:简洁性已死。

当我们将AI作为指导原则时,我们必须扪心自问:如果大脑的解决方案不仅是复杂的,而且是根本上无法理解的,那该怎么办?

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

伊尔·门明·帕克

Il Memming Park

葡萄牙Champalimaud未知中心组长

CATNIP实验室研究员,研究兴趣是神经科学和机器学习的交叉领域,特别是关于时间信息处理。

旨在使用统计机器学习方法来分析神经数据,以理解认知算法(例如,用于决策或工作记忆的算法)。实验室:https://catniplab.github.io/

训练一个人工智能模型就像雕塑:我们从一块璞玉开始,不断雕琢,以揭示神经科学的潜在真理。

对于具有许多自由度的大规模模型,这块璞玉是巨大的,就像一块多维度的大理石。

实验、观察、数据集和理论就像是指令,用来剔除(或雕琢掉)不一致的部分;剩下的大理石(模型)的形态则由这些约束条件所决定。

正如Eva Dyer和Blake Richards所倡导的那样,为神经科学训练大规模人工智能模型将需要前所未有的投资与合作。

神经科学的进步当然需要这样的投入,但让我夜不能寐的是这些问题的不适定性(ill-posed nature):我们是否有足够的约束条件来揭示由进化塑造的隐藏之美?

现代人工智能模型的优化方向是预测性能。如果建模是出于实用的目的,例如设计一个机械肢体,那么一个能够泛化并预测观察结果的巧妙模型就足够了。

在这种情况下,拥有10,000个表现同样出色但本质上不同的解决方案并不重要。

但如果目标是揭示大脑功能的机制,即创建其生物学实现的可解释表示,那么即使预测性能很高,我们也可能需要多得多的约束条件。

近期人工智能在科学领域的成功,常常是为了下游的应用科学和工程,而用一个黑箱模型来绕过一个复杂的未解问题。

但基础科学,在此特指神经科学,要求更高。

实现更深层次的理解,不仅需要拥抱大脑的复杂性,还需要收集新的、信息量极高的数据,以便进一步雕琢我们的模型。

它甚至可能需要一类根本不同的人工智能模型。

与其依赖当前架构这种“大理石”(虽然强大但可能流于表面),我们可能需要的是像“花岗岩”那样的模型材料,

它们虽然更难雕琢,却能够表达出我们试图发现的循环动态机制。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

路易斯·佩索阿

Luiz Pessoa

马里兰大学帕克分校的心理学教授

马里兰神经影像中心主任,研究兴趣集中在研究大脑中情绪、动机和认知的相互作用。他还对神经科学的概念和哲学基础感兴趣。

著有The Cognitive-Emotional Brain: From Interactions to Integratio,The Entangled Brain: How Perception, Cognition, and Emotion Are Woven Together。

Dyer和 Richards的行动呼吁值得我们大力支持和审慎考量。他们主张拥抱大脑内在复杂性的论点,与我们将大脑视为一个深度交互系统的理解十分契合。

关键在于如何将这一愿景付诸实践。

我建议把对“大脑复杂性”的关注再向前推进一步。

的确,如Dyer和Richards所说,大脑是一个非稳态、非线性、随机且高维度的生物系统,但这同时也给其所提出的“借助人工智能前行”带来了更深层次的挑战。

如果我们接受大脑的运作方式在根本上是情境依赖的,甚至是极度依赖的,那么要捕捉有意义的原理,就需要从一个极其广阔的可能状态和计算空间中进行采样。

这无疑对任何大规模建模方法都提出了概念与实践的双重考验。

第一,当前的实验室范式未能充分捕捉在自然环境中观察到的丰富动态。

尽管 Dyer和Richards承认了这一点,但我想更进一步指出:我们不仅需要在复杂生态环境中,记录动物自由活动及典型的社会互动(包括合作和竞争)的数据,

此外,环境本身必须足够复杂,这样才能反映真实世界动态的有意义的动物-环境双向互动。

第二,多物种数据集的解读更是难点重重。在一个非稳态、非线性、随机、高维度的系统中,我们应当预期在组织结构和功能两方面都存在显著的物种差异。

啮齿类和灵长类动物大脑在微观、介观和宏观尺度上的结构差异,很可能导致有意义的功能分化。

这并未降低比较研究的价值,反而要求我们在理论框架和建模方法中明确地将这些差异考虑在内。

如果神经科学界能在拥抱Dyer和Richards愿景的同时,审慎地应对这些挑战,那么我们在理解大脑功能和行为方面可能正迈入一个极其富有成效的时代。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

穗雅·萨克森那

Shreya Saxena

耶鲁大学吴氏神经科学研究所神经计算与机器智能中心的助理教授

她曾担任佛罗里达大学电气与计算机工程系的助理教授。

在哥伦比亚大学祖克曼心智、大脑与行为研究所的理论神经科学中心的博士后研究期间,她开发了用于解释性建模神经和行为数据的机器学习方法。

利用人工智能理解神经功能,正迅速成为计算神经科学和系统神经科学的一个核心组成部分。

实验科学家们深情凝视每一条来之不易的单神经元记录的日子已经一去不复返了。

神经数据已经变得庞杂而复杂,对这些数据进行建模,需要能适应规模扩张的计算方法。大规模人工智能或许正好能为许多研究人员面临的问题提供解决方案。

但是,正如Dyer和 Richards所强调的,神经科学向大规模人工智能的转型并非没有挑战,这包括适用于神经科学特定模型的数据可及性和标准化问题,

以及实现这些目标所需的数据工程和计算资源。

此外,在神经科学这样一个广阔且多样化的领域,通常每年有多达25,000人参加神经科学学会年会,

想要就最适合大规模AI解决的关键问题达成共识,依旧面临着巨大挑战。

神经科学长期以来一直依赖于一次只针对少数几个实验的定制化模型(通常是在实验与计算配对的合作中)。

团队科学的出现已开始将计算推向核心地位,并以一种中心辐射型(hub-and-spoke)模式连接起更大规模实验者群体之间的合作,

从而更有效地解决更广泛的问题。大规模人工智能有潜力加速这一进程,但并非所有研究领域都能同等受益。

神经科学前沿的许多问题依赖于新颖的记录技术或独特的实验范式,

这些技术和范式本身会产生小规模、充满噪声的数据集,而这类数据集可能不太适合预训练的人工智能模型。

与单凭庞大数据量就能驱动模型成功的文本人工智能不同,神经科学或许能从结构生物学知识中受益。

为了在“小数据”情境下有效地建模神经系统,人工智能模型有潜力整合解剖学和生理学上的约束条件,例如已知的脑区间连接性和神经动力学原理。

将大规模人工智能与神经科学知识相结合的混合方法,对于获得可解释且具有生物学意义的结果可能至关重要。

最后,这些模型可以与实验者形成闭环操作,指导神经调控和验证实验,从而推动科学发现和医疗健康应用的发展。

我们正处在一个人工智能新时代的门槛上,在这个时代,大规模模型正变得越来越容易获取,并深度融入日常生活。

促进神经科学计算方法的多样性,包括投资于大规模人工智能的使用,对于确保我们不错过下一个重大的神经科学突破至关重要。

九名学者万字追问:为什么神经科学没能在AI热潮中发展出大模型?

大卫·萨斯罗

David Sussillo

Meta现实实验室高级研究科学家

斯坦福大学的兼职教授,师从Larry Abbott,开展了关于混沌递归神经网络中学习的研究。

他的研究跨越了神经科学、机器学习和动力系统之间的交叉领域,专注于通过种群动力学视角来理解神经计算。

他的贡献包括关于前额叶皮层中依赖上下文的计算、脑机接口以及开发分析人工神经网络的新方法。

Dyer和Richards有力地论证了神经科学必须通过大规模方法来拥抱大脑的全部复杂性。

他们关于共享基础设施、计算资源和专业工程团队以处理海量神经数据集的呼吁,既及时又重要。

但是,他们对利用人工智能来分析神经数据的强调,留下了一个关键的空白:理解大脑如何进行计算这一根本目标。

他们正确地指出,神经活动是情境依赖的、非线性的和高维度的。传统的还原论方法,虽然对于理解基本机制很有价值,但无法捕捉从神经元网络中涌现出的计算。

但将AI视为解决方案就会有黑箱的风险。作为分析工具,AI能在应用中找到有效模式,却无法提供对神经计算基本原理的深入见解。

一个更具建设性的方法是将这些人工神经网络用作大脑功能的可解释模型。

通过在神经数据上训练这些网络,并让它们执行与生物回路相同的任务,我们可以创建出神经系统的简化但功能性的模拟体(或对应物)。

关键的下一步是:对这些训练好的网络进行逆向工程,以理解它们如何解决计算问题。

这种模型构建和系统化分析的过程,能够产生关于真实大脑如何进行计算的可检验假设。

他们援引了的“惨痛教训”,即在AI领域,规模化的通用方法往往优于精心设计的定制化解决方案。

这一原则当然适用于神经数据的建模:在更多数据上训练的更大型网络,将比手工构建的模型产生更好的预测结果。

但理解神经回路如何进行计算,则需要一种根本不同的方法。迄今为止,我们还没有衡量科学洞察力的优化指标。

通往理解的道路,需要人类的创造力和对我们大规模模型的严谨分析,而不仅仅是扩大模型的规模。

我们需要用于理解网络动力学的理论框架、识别计算基序(computational motifs)的方法,以及将人工网络解决方案与生物机制联系起来的途径。

您认为大规模人工智能将如何惠及神经科学?欢迎在下方留言评论。

原文链接:https://doi.org/10.53053/ORXM6480

文章来自于微信公众号“追问nextquestion”,作者 :Eva Dyer、Blake Richards

给TA打赏
共{{data.count}}人
人已打赏
AI新闻资讯

万径归于「概率」,华人学者颠覆认知!英伟达大牛力荐RL微调新作

2025-5-11 9:16:40

AI新闻资讯

曝国行版iOS18.6启用部分苹果AI 百度阿里提供技术支持

2025-5-11 9:30:04

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索