神经元动力学的一维近似揭示了计算策略
康纳·布伦南 ,阿黛蒂·阿加瓦尔,裴锐,大卫·苏西洛,亚历克斯·普罗克特
发布时间:2023 年 1 月 6 日
抽象
神经元活动与它所体现的计算之间的关系仍然是一个悬而未决的问题。我们开发了一种新方法,将观察到的神经元活动浓缩成定量准确,简单和可解释的模型,并在从秀丽隐杆线虫的单个神经元到人类的功能磁共振成像的不同系统和规模上对其进行验证。该模型将神经元活动视为互锁一维轨迹的集合。尽管它们很简单,但这些模型准确地预测了人类参与者未来的神经元活动和未来的决策。此外,由相互连接的轨迹形成的结构——支架——与系统的计算策略密切相关。我们使用这些支架来比较灵长类动物和在同一任务上训练的人工系统的计算策略,以确定人工代理学习与灵长类动物相同策略的特定条件。使用我们的方法提取的计算策略预测了新刺激的特定错误。这些结果表明,我们的方法是研究不同系统中计算与神经元活动之间关系的有力工具。
作者摘要
神经元成像技术的进步现在允许记录生物系统中相当一部分神经元。然而,目前尚不清楚如何从如此复杂的非线性时间序列数据中提取科学见解。在这里,我们开发了一种在各种实验室任务中直接解释几个不同生物系统使用的计算算法的方法。这种方法的主要直觉是,为了将信息存储在嘈杂的动态系统中,必须保护信息免受噪声的影响。该标准导致系统可以通过一维轨迹很好地近似。这些轨迹直接映射到系统执行的计算,并且不会显著降低模型的定量精度。我们将这种方法应用于几种不同的生物系统和人工神经网络。我们发现生物系统倾向于找到问题的通用解决方案,而人工神经网络依赖于数据集的细节。
引文: 布伦南 C, 阿加瓦尔 A, 贝聿铭 R, 苏西洛 D, Proekt A (2023) 神经元动力学的一维近似揭示了计算策略。公共科学图书馆计算生物学19(1): e1010784. https://doi.org/10.1371/journal.pcbi.1010784
编辑 器: 巴德·埃门特劳特, 美国匹兹堡大学
收到: 6月 25, 2022;接受: 12月 1, 2022;发表: 1月 6, 2023
版权: ? 2023 布伦南等人。这是一篇根据知识共享署名许可条款分发的开放获取文章,该许可允许在任何媒体上不受限制地使用、分发和复制,前提是注明原作者和来源。
数据可用性: 用于这项工作的数据和代码可在以下网址获得: https://osf.io/bge2n/ 最新版本的LOOPER可在以下网址获得: https://github.com/proektlab/LOOPER.
资金: 这项工作得到了美国国家神经疾病和中风研究所(R01NS113366到AP)和谷歌(CB博士奖学金)的资助。资助者在研究设计、数据收集和分析、发表决定或手稿准备方面没有任何作用。
竞争利益: 提交人声明不存在相互竞争的利益。
介绍
了解大脑如何表示、存储和处理信息的最普遍的方法之一是识别环境条件和行为行为的神经元相关性。然而,应该在哪个层面上建立这些相关性并不是先验的明显。经典方法侧重于单个神经元的水平。事实上,单个神经元的放电可以与感官刺激的特征[1],动物在空间中的位置[2,3]以及许多其他特征相关联。然而,在许多系统中,单个神经元的活动与环境没有明显的关系,也没有与任务相关的变量[4,5]。每个神经元的活动可能与显著环境条件的复杂混合物相关,因个体而异[6],并且在同一个体内随时间推移[7]。有趣的是,在调节运动行为[8,9],认知任务[5,10]和感觉刺激编码[11]等系统中,已经表明单个神经元的复杂和可变行为可以与神经元群的简单集体动力学共存,这些神经元群与特定任务特征有明确的关系。这些观察结果激发了一种称为动态计算(CTD)的新理论,该理论试图将神经元种群动态与大脑为任务服务的计算联系起来[12]。
CTD不是检查单个神经元的活动,而是将大脑塑造成以下形式的动态系统:
(1)
系统的流 由其当前状态 x 和系统的输入 u 唯一确定。因此,CTD的解释重点不是单个神经元,而是行为任务期间神经元群体活动追踪的轨迹结构。然而,与可以通过实验直接观察到的单个神经元的活动相反,从实验记录中提取神经元群体轨迹面临着几个基本挑战。
提取神经元群体轨迹的传统方法是首先降低记录的维度[13,14],然后识别这种低维投影中的轨迹[4,5,14,15]。 然而,目前尚不清楚需要x的哪些维度来捕捉轨迹的显着特征。例如,为了提取运动皮层中神经元群体活动的旋转轨迹,开发了一种专门识别旋转动力学的投影技术[8]。这需要对人们期望找到的轨迹结构进行正确的先验直觉。然而,这种先验的直觉可能并不总是很容易从实验观察中闪现出来。此外,在某些情况下,神经元种群轨迹并不局限于单个低维亚空间,而是在状态空间的不同位置沿不同维度进化[16]。在这种情况下,任何单个线性坐标系都可能强调轨迹的某些要素,但会掩盖其他要素。因此,为了在理解神经元动力学的计算作用方面取得进展,需要开发一种能够提取任意形状的神经元群体轨迹的方法。
在这里,我们提出了一种方法,该方法允许识别神经元群体轨迹,而无需对其形状做出强有力的假设。我们的方法不是首先将神经元活动投射到单个线性子空间上,而是使用动力学的局部属性来重建非线性轨迹。促使我们采用这种方法的关键观察结果是生物系统是嘈杂的[17-20]。噪声动力系统的动力学可以通过在方程1中添加噪声来正式表示。
(2)
在噪声系统中,由于扩散,存储在初始位置x(0)的信息会随着时间的推移而退化[17,21,22]。 为了抵消这种扩散并允许稳定的信息存储,必须最小化两个属性 - “发散”和“纠结” - [9,23]。散度描述了从同一初始条件开始的点彼此扩散的速率。在低发散度的系统中,从相同初始条件开始的点将在时间上保持紧密,形成稳定的轨迹[24,25]。当局部邻域中与轨迹流正交的所有方向都将系统的状态推回轨迹时,就会出现稳定的轨迹,使其能够抵抗噪声引起的局部扰动。请注意,这种轨迹将不可避免地是一维的,并且不能组合形成更高维的结构(例如片状),因为这些结构包含与流动正交的边际稳定方向。当附近的初始条件具有不同的流动方向时,从它们开始的轨迹将纠结。当稳定的轨迹在状态空间中分离时,就会发生最小的缠结,因此在噪声的影响下不太可能混合。
这些理论考虑得到了实证研究的支持,这些研究表明,参与运动规划和执行的皮质区域的神经元动力学特别避免发散和缠结[9,23]。最小化发散和纠结的自然结果是,神经元动力学可以很好地近似为不重叠的稳定轨迹的集合。这意味着每个轨迹唯一地标识一个初始条件,并允许稳定的信息存储。关键见解是,发散和纠结都是为局部邻域而不是整个状态空间定义的属性。我们的方法称为LOOPER,利用了这一点,并为每个邻域识别系统的局部低维投影,从而最大限度地减少分歧和纠结。这种建模方法的最终结果是,神经元动力学被简洁地近似为互锁的一维轨迹的集合。
这种方法有几个重要的特性,适合CTD。由于该方法旨在识别局部低维投影,从而最大限度地减少发散和纠结,因此该方法识别的轨迹很容易由系统本身区分,而不是原则上可以通过实验者强加的特定坐标系选择来区分的轨迹。通过将动力学近似为不同的轨迹,我们可以直接询问存储在系统中的信息以及如何处理这些信息。任务突出信息将导致系统具有一组特定的初始条件,然后这些条件将沿着单个轨迹及时演变。因此,轨迹能够存储任务突出信息。当系统使用此信息做出决策或从环境中接收新输入时,轨迹可以分支或合并。轨迹之间的连接模式直接反映了系统对该信息(计算脚手架)的推断。由于该支架抽象出神经元活动的细节,因此从涉及类似计算的架构上不同的系统中提取了类似的计算支架。令人惊讶的是,神经元动力学完全由稳定的轨迹组成的假设并没有对LOOPER定量模拟神经元动力学的能力产生负面影响。我们表明,LOOPER 忠实地重建了从单个神经元到全脑大胆信号的尺度上的实验观察结果,以及从秀丽隐杆线虫到灵长类动物前额叶皮层的不同复杂性的系统。
结果
1 LOOPER概述
在这里,我们给出了LOOPER的直观概述。方法部分给出了更详细的说明。LOOPER的基本目的是构建复杂实验观测的简单模型。为了做到这一点,需要解决两个基本问题。首先,实验观察需要适当简化。其次,需要构建简化实验观测动力学模型。值得注意的是,对于随机动力系统(方程2),这两个问题可以通过称为扩散映射的单一数学技术同时解决[26,27]。LOOPER的主要概念创新是,假设随机动力系统已经进化或优化以存储信息,使用扩散图构建的模型可以简化为互锁的一维稳定轨迹系统。
LOOPER扩展了秀丽隐杆线虫中使用的类似方法[6]。秀丽隐杆线虫方法使用扩散图的特征分解来查找数据中的主要循环模式。但是,我们发现这种技术在更复杂的系统中失败了。扩散图的特征分解仅查找与单相速度相关的循环轨迹。虽然这种策略在秀丽隐杆线虫中取得了成功,但在更复杂的系统中,情况可能不一定如此。LOOPER 通过直接对扩散图进行聚类以得出一维轨迹模型来解决这个问题。虽然这些聚类和最小化步骤不可避免地增加了方法的复杂性,并使该方法无法保证任何类型的最佳性,但我们发现该方法在处理各种模式生物和成像类型的噪声实验观察方面是有效的。与秀丽隐杆线虫数据的另一个重要区别是,LOOPER有能力处理试验数据。LOOPER 和秀丽隐杆线虫方法自然设计用于连续记录,但通过简单的修改(S1 文本部分扩展 LOOPER 以处理试验数据),该方法也可以应用于无法连续记录的试验数据。
由于动力学的随机性质,不可能精确地模拟从特定初始条件开始的任何一个轨迹的时间演变。解决此类问题的标准方法是用控制状态P(x,t)分布的时间演变的确定性微分方程代替控制系统状态的随机微分方程(方程2),称为福克-普朗克方程[28]。经过适当的归一化后,扩散映射[26,27]是福克-普朗克算子的离散近似。扩散图也是一种强大的非线性降维技术,可用于流形发现。因此,扩散图是研究随机系统中动力学的自然选择。
我们将说明LOOPER如何利用扩散映射来同时降低神经元活动的维度并构建动力学模型。LOOPER 从观察到的神经元活动时间序列开始(图 1A)。图1B说明,可以展开包含神经元轨迹的螺旋结构(图1A),以显示由扩散图定义的两个潜在变量定义的更简单(低维)流形。
缩略图 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图1. LOOPER示意图——一种基于实验观测构建非线性动力系统简单模型的方法。
概述: A) 由三个神经元给出的假设系统的活动。该系统的状态以神经元群体活动载体为特征,该载体记录所有神经元(神经元1,2和3)的瞬时放电。请注意,活动仅限于螺旋流形。时间是隐式的,沿 A 到 F 中的箭头指示的方向流动。在此示例中,神经元活动在三种不同的任务条件下记录,以 A-F 的颜色表示。B)扩散映射用于解开A中的螺旋结构,以揭示包含所有神经元活动的更简单(2D)投影。虽然展开的空间是二维的,但系统的实际动力学在很大程度上局限于一组三个一维轨迹,每个轨迹从一组独特的初始条件(红色、绿色和蓝色圆圈)开始。只要轨迹保持独立,存储在系统状态中的信息就会被保留。在红色和蓝色轨迹合并的那一刻,系统不再能够区分它们(蓝色箭头)。轨迹的合并可以通过神经元活动分布的重叠(边缘直方图)来量化。相反,在试验结束时,绿色轨迹与其他轨迹分开。因此,绿点的分布与其他两个不同。C) 显示一个扩散图,归一化为转移概率矩阵,由 A 中的观测值构建。三个任务条件(每个三个试验)由三个彩色方块表示。每种情况下最可能的过渡都是沿着矩阵的一个对角线。这与实际观察结果相对应。远离这条主对角线的高跃迁概率对应于在不同试验中观察到的类似动力学。请注意,蓝色和红色条件下的对角线带在试验后期出现。相比之下,绿色和红色条件最初相似,但在试验结束时有所不同。D)C中的观察自然地提供了粗粒度扩散图的方法。具有相似转移概率(C 中的矩阵行)特征的状态可以很容易地聚合。这会产生一个过程粒度转移概率矩阵,其中每个条目都是根据 C 中扩散图中行的相似性聚合的实验观测值集群。这个粗粒度的转移概率矩阵显示为图形。每个状态(S1,S2,S2...)在潜在空间中的位置由构成该状态的所有实验观察的平均值给出。请注意,在此示例中,从每个状态(箭头)到另一个状态的转换主要是。这表达了一个假设,即最突出的信息可以用一维轨迹表示。这个假设允许通过将状态(S1、S2、...)聚类到轨迹(有序的状态序列)中来进一步简化系统。E)最后,对每个轨迹中的状态进行插值,以显示完全由一维轨迹组成的模型(每个彩色表面都是一个不同的轨迹)。每个轨迹的宽度显示了投影到潜在空间上的实验观测值的方差 F) 描述数据的一种有用方法是“计算脚手架”,它是分配给每个时间点观测数据的轨迹 ID。请注意,数据倾向于根据轨迹 ID 在试验中间分离出初始条件(红色、绿色和蓝色)。此外,轨迹合并和拆分的方式可以对系统使用的信息类型提供有价值的见解。
https://doi.org/10.1371/journal.pcbi.1010784.g001
与试图揭示流形本身的传统方法[3]相比,我们感兴趣的是识别位于流形上的稳定神经元轨迹。请注意,扩散图可以归一化,使得每个条目都是在时间 t 观察到的数据点在下一个时间步中转换为任何其他观察到的数据点的概率。因此,可以将该映射视为转移概率矩阵(图1C)。该转移概率矩阵是观测到的动力学的马尔可夫模型。LOOPER 的主要贡献是将扩散图压缩为一组稳定的一维轨迹的方法,以便得出可解释和可推广的动力学模型。
请注意,稳定轨迹在转移概率矩阵中很容易识别为高转移概率的对角线带。最突出的波段位于一次性对角线上,对应于观察到的系统轨迹。相似轨迹的重复实例在矩阵的偏离对角线上显示为条带(图1C,单次试验)。此观测值可用于粗粒度转移概率矩阵。具体来说,具有相似转移概率分布的两个状态(图1C中矩阵的行)在单个时间步长(方法)后无法被系统轻松区分。有了这种相似性的自然定义,LOOPER 将原始扩散图(图 1C)的状态聚集成集群。使用最小描述长度 (MDL) 算法优化群集数。此聚类过程的结果是一个较小的转移概率矩阵(图1D)。请注意,在蓝色和红色轨迹交叉和纠结的点(图1C),聚类过程导致转移概率的收敛(图1D)。相反,当红色和绿色轨迹分开时(图1C),聚类过程会导致转移概率的发散(图1D)。
在具有稳定轨迹的系统中,图1D中观察到的跃迁是稀疏的。最常见的是,给定状态可以仅转换为另一个状态。因此,如果一个系统在试验开始时处于特定状态,它很可能会发出一系列刻板的状态。LOOPER 利用这一点进一步简化模型。具体来说,我们使用额外的聚类步骤来使用修改后的编辑距离来识别重复的状态序列。为了近似连续轨迹,我们在构成它的状态之间进行插值(图1E)。与原始粗粒度非常相似,优化轨迹数以保持模型的定量精度。
该过程的最终结果是仅由两个参数定义的观察到的神经元动力学的简单模型:轨迹ID和沿轨迹的相位。请注意,模型空间中的每个条柱都与聚类分析算法分配给它的实验观测值列表相关联。为了验证模型,我们从高度浓缩的模型空间投影回神经元活动空间。这是通过在模型的每个箱中发出观察到的神经元活动的平均值来实现的。
图1E显示了LOOPER模型的稳定轨迹(颜色)如何映射到潜在空间。正如我们将在下面展示的几个实验和模型系统一样,对数据的更抽象的描述特别有用(图1F)。我们不是可视化潜在空间中每个轨迹的位置,而是将每个实验观察(由任务期间的特定时间标记)映射到 LOOPER 分配的轨迹 ID 上。我们将此描述称为计算基架。此图包含几个基本信息。首先,它显示系统存储了多少条不同的信息(试验条件)。在图1中的示例中,系统区分了三个试验条件。它还显示了在任务期间,系统何时进行这些区分(绿色和红色轨迹发散的点)。最后,它显示有关不同初始条件的信息何时丢失(蓝色和红色轨迹的汇合点)。通过这种方式,计算脚手架描述捕获存储在系统动态中的关键信息。在本文的其余部分,我们将展示如何使用计算支架来推断架构上不同的神经元网络动态中体现的计算的相似性和差异性。
2 LOOPER提取的计算支架预测新刺激下的任务性能
人们对使用递归神经网络(RNN)来模拟大脑中观察到的动力学有相当大的兴趣[5,14,29,30]。不管对神经科学的潜在影响如何,RNN可以任意精确地近似任何动力系统[31]。因此,我们首先说明LOOPER在训练以解决工作记忆任务的RNN上的能力。因为我们最终感兴趣的是模拟嘈杂的大脑动力学,所以我们在RNN的隐藏状态中注入了噪声。
在图1中,我们说明了LOOPER在玩具系统上的功能,该系统被明确构造为具有稳定的轨迹。LOOPER 模型(图 2)成功地重建了噪声 RNN 中的动力学(R2= 0.99)。与训练的RNN相反,LOOPER发现离散的稳定轨迹,在未经训练的RNN中找不到轨迹(S1文本中的图A)。研究RNN动力学的传统方法涉及线性稳定性分析[32]以揭示稳定的不动点。虽然这种方法对RNN非常有用,但它不能直接应用于实验观察。然而,在S1文本的图B中,我们表明,由LOOPER识别的稳定轨迹与在RNN中使用常规稳定性分析发现的稳定不动点非常接近。因此,即使在运动方程未知的生物系统中,LOOPER也可以发现类似于线性稳定性分析发现的动力学特征。
缩略图 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图2. LOOPER模型对新刺激组合的行为进行具体预测。
A)工作记忆任务示意图。我们在 Romo 任务 [35] 上对任务进行建模。在他们的任务中,猴子接收施加在指尖的两个振动刺激序列(F1和F2),刺激延迟为3s。猴子必须按下两个按钮中的一个,具体取决于 F1 的频率是否大于 F2。我们训练了一个由100个LSTM单元组成的RNN,使用与原始论文中相同的刺激统计来解决这项任务。对于 RNN,刺激呈现 10 帧。高斯噪声被添加到输入值和RNN的隐藏状态中。为了与猴子数据进行比较,我们只包括三个F1值,每个神经元有超过10个记录。B)RNN解决方案的计算支架有3个部分。系统对蓝色区域中的 F1 值进行编码和存储。但请注意,表示 F1 = 20 和 F1 = 40 的轨迹在 F2 开始之前融合。网络仍然能够完成任务,因为遵循 F1 = 20 和 F1 = 40 的所有 F2 都是不同的。这意味着网络仅使用有关F2(橙色区域)的信息来解决任务。但是,对于 F2 = 15 的情况,系统的响应必须根据 F1 = 10 还是 F1 = 20 而变化。因此,系统必须区分 F1 = 10,并使用该信息与绿色区域中的 F2 进行比较。C)训练和新刺激对的分类精度表。B中的计算支架预测网络将在标记为红色的新刺激上给出错误的结果。观察到的错误模式与 LOOPER 预测的错误模式(顶行)相匹配,并证实了 RNN 无法区分 F1 = 20 和 F1 = 40(如 B 所示)的断言。模拟适合此网络的 LOOPER 模型会产生与网络(中间行)相同的误差。这些错误不会发生在在修改后的数据集上训练的 RNN 中(图 3),其中漏洞利用不会发生(底行)。
https://doi.org/10.1371/journal.pcbi.1010784.g002
与用于模拟复杂动力系统的其他技术相比,LOOPER 的主要优势 [14, 33, 34] 是计算支架(图 2B)可用于推断在动力学中实现的计算。为了说明如何做到这一点,我们在工作记忆任务上训练了RNN。任务示意图如图2A所示。我们选取了F1和F2的值,这些值模仿了恒河猴相同工作记忆任务的最初发布数据中的值的统计数据[13,35]。
任务设计的目标是记住 F1 的值,并在延迟后将其与 F2 的值进行比较。网络可以用来解决此任务的一种策略是记住所有三个 F1 的值,并将这些存储的值与 F2 进行比较。然而,对于用于训练灵长类动物的 F1 和 F2 的特定值,另一种解决方案也是可能的。在某些任务条件下,可以在没有任何有关F1的信息的情况下正确解决任务。例如,如果 F2 恰好是 25,则正确答案始终是“大于”。同样,当 F2 为 30 时,正确的响应始终为“小于”。因此,网络可以选择忽略有关F1的信息,并仅基于F2产生正确的响应。请注意,不可能根据对训练刺激的反应直接推断正在使用哪种策略。
当我们在这个刺激集上训练一个RNN时,LOOPER提取了一个计算支架,这表明对应于F1 = 20和F1 = 40的两个轨迹在F2开始之前融合。这意味着,虽然网络最初唯一地编码每个F1,但在刺激期间忘记了F1 = 20和F1 = 40之间的区别。另一个轨迹明确地确定了整个刺激期间的F1 = 10。这个支架表明网络根据F1的具体值采用两种不同的策略。如果 F1 = 10,则计算策略是将 F1 与 F2 进行比较。但是,如果 F1 为 20 或 40,则网络将生成仅依赖于 F2 的响应。在一些训练运行中,还观察到另一个合并 F1 = 10 和 F1 = 40 的计算支架。两个计算支架在训练集上导致相同的近乎完美的性能。
如果LOOPER发现的计算支架确实反映了RNN存储和使用的信息,那么RNN在呈现特定的新刺激组合时应该犯特定的错误。因为,根据 LOOPER 计算支架,RNN 不记得 F1 = 20 和 F1 = 40 之间的区别,所以当呈现 F1 = 40 后跟 F2 = 25 时,它会错误地输出“大于”。类似地,LOOPER 模型预测 F1 = 20 后跟 F2 = 30 应该错误地产生 RNN 中的响应“小于”。最后,LOOPER 提取的计算支架预测 RNN 将对新颖的刺激组合给出正确的响应 F1 = 40 后跟 F2 = 15,F1 = 20 后跟 F2 = 50。这正是在99%的试验中观察到的RNN对这些刺激组合的观察(图2C)。由RNN构建的LOOPER计算支架(方法)的模拟给出了与原始网络中观察到的相同的错误模式。这表明LOOPER模型准确地预测了网络对新刺激组合的响应。RNN的故障不是网络中噪声的反映。如果是这样的话,那么新刺激组合的结果将是可变的。相比之下,LOOPER 模型预测特定的刺激组合,这些组合会导致始终错误的答案,而其他新颖的刺激组合会导致正确的性能。这表明错误是由于在RNN动力学中实现的意外算法造成的,而不是随机影响或RNN过度拟合训练数据集的一般趋势。事实上,在修改后的训练集上训练的RNN(在图3中讨论)输出对所有新刺激的正确反应。
缩略图 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图3. 计算支架在猴子和RNN之间是保守的,尽管神经元活动模式不同。
前额叶皮层(A)和RNN(B)中的平均减去活动投射到前三个主成分上(猴子解释56%方差,RNN解释83%)。细线显示在单个试验中观察到的神经元活动(按任务条件着色)。LOOPER 提取的稳定轨迹也会投射到这些 PC 上(粗线)。虚线表示 F1 < F2,实线表示 F1 > F2。阴影区域反映分配给每个模型条柱的数据方差。F1 和 F2 刺激时序显示为白色标记。黑色箭头表示相速。使用LOOPER在猴子(C)和RNN(D)数据上构建的计算支架。RNN和猴子共享相同数量的轨迹和分支模式,这意味着它们具有相同的计算支架。F1 使系统分化为 3 个不同的轨迹(编码和存储 F1)。F2 导致每个轨迹分叉(将存储的 F1 与 F2 进行比较)。请注意,相同的 F2 映射到不同的轨迹,具体取决于 F1 的值。因此,与存储在系统动力学中的F1不同,F2信息不会映射到唯一的轨迹上。
https://doi.org/10.1371/journal.pcbi.1010784.g003
与监督技术相比,LOOPER 对动力学进行无监督建模具有根本优势。例如,RNN 数据的 dPCA [13] 表明,反映 F1 = 20 和 F1 = 40 的轨迹在刺激间隔期间在统计上是不同的(S1 文本中的图 C)。这意味着RNN确实明确地编码并记住了F1身份。然而,这种基于dPCA的断言与RNN在新型刺激组合上所犯错误的特定模式相矛盾。相比之下,LOOPER正确地将轨迹组合成一条轨迹。尽管两条轨迹之间存在统计差异,但这种差异不足以让 LOOPER 发现两条轨迹的转移概率差异。这揭示了统计差异与神经元动力学的行为突出方面之间的根本区别。神经元活动的统计差异本身并不意味着系统利用了这些区别。
3 个 LOOPER 模型跨不同系统通用
LOOPER 的另一个重大进步是,原则上它可以创建一个模型,该模型在执行类似计算的不同动态系统中泛化。为此,我们将探索在两个不同的系统中出现的动力学 - 人工RNN和灵长类动物前额叶皮层 - 训练执行类似的工作记忆任务(图2A)。我们将LOOPER应用于先前发表的来自恒河猴工作记忆任务的神经元活动数据[13,35]。在这种情况下,我们修改 RNN 的训练集,使每个 F1 与至少一个其他 F1 共享一个 F2 值。这可以防止 RNN 像上一节那样使用其“漏洞利用”。LOOPER 用 R 准确重建猴子数据2的 0.97。该模型还可以预测未来的神经元活动,中位数为R2的 0.9。RNN的动力学也得到了很好的重建(R2= 0.99)和精确模拟(R2= 0.98)由卢珀。LOOPER 模型的定量准确性及其预测能力将在最后一节中详细讨论。
量化神经元活动异同的标准方法是降低观察的维度。与猴脑和RNN之间单个神经元的底层结构和动力学根本不同的事实一致,将数据投影到前三台PC上揭示了在相同任务上训练的两个系统中出现的神经元活动结构的根本差异(图3A和3B)。为了测试这种差异是否仅限于数据的线性变换,我们计算了典型相关分析(CCA)的冗余指数[36],该指数明确寻求最大化猴子和RNN活动之间的相关性。在所有175个规范相关维度上,猴子数据的冗余指数为25%方差解释(~2 PC),RNN数据解释方差为51%(<1 PC)。因此,最大化解释方差的数据线性投影不显示相似性,而最大化数据之间相似性的线性投影几乎无法解释方差。大脑和RNN之间神经元活动的差异并不完全令人惊讶。架构上不同的RNN也会产生不同的活动模式,即使在同一任务上训练[32]。
RNN和大脑中神经元活动的明显差异可能表明,在生物和人工系统中,解决任务的动力学根本不同。然而,尽管神经元活动存在这些明显的差异,但LOOPER揭示了两个系统的计算支架是相同的(图3C和3D)。在这两个系统中,F1和F2的每个独特组合都聚集成不同的轨迹。此外,共享 F1 的轨迹在 F1 和 F2 之间的刺激间隔期间互锁。这种轨迹结构以一对一的方式映射到计算中涉及的不同步骤。系统以单点(启动状态)启动。然后,它接收第一个刺激 (F1) 并快速发散成对应于每个 F1 刺激值的 3 个不同的束(分类 F1,灵长类动物验证准确率 99%,灵长类动物 p 值< 0.0001 自举与空模型)。在刺激间延迟的持续时间内,这些束保持不同(记住F1,灵长类动物验证准确率为98%,灵长类动物p值<0.0001自举与零模型)。收到 F2 后,这 3 个不同的捆绑中的每一个都进一步分为两个 - 一个分支代表 F1 < F2,另一个代表 F1 > F2(将 F2 与记住的 F1 进行比较,灵长类动物验证准确率为 98%,灵长类动物 p 值< 0.0001 引导与空模型)。请注意,此分叉不会简单地对 F2 进行编码。相同的 F2 值在不同的 F1 之后遇到时会产生不同的轨迹。因此,动力学不仅取决于刺激,还取决于编码F1记忆轨迹的系统状态。最后,在系统产生响应后,代表 6 个条件中每个条件的 6 个不同轨迹开始收敛(任务结束)。这种趋同反映了这样一个事实,即有关F1和F2的信息不再突出。
与其他启发式技术相比,LOOPER 的一个优点是 LOOPER 提取的计算支架在数量上是准确的。这意味着算法事件的时序(轨迹的拆分和合并)能够近似。这些事件的确切时间仍然需要直接实验来确认,因为LOOPER模型假设一定程度的随机性,并利用状态空间重建,这两者都会导致时间信息的扭曲。
图3D和3E中的计算支架是使用数据子集构建的。我们通过将模型构建中未使用的剩余数据子集投影到 LOOPER 模型空间(方法,S1 文本中的图 D )来验证脚手架。验证数据在 96% 的时间内与模型的轨迹结构匹配(n = 3960,p 值< 0.0001 引导与空模型)。图3A-3D中的观察表明,虽然神经元活动可能是不同的(图3A和3B),但在工作记忆任务期间,RNN和大脑动力学之间的差异仅限于从LOOPER发现的相同计算支架到神经元活动的映射。通过这种方式,LOOPER可用于揭示结构多样化的神经元网络中出现的看似不同的动力学之间的本质相似性。
当使用与猴子相同的刺激统计时,RNN学习了不同的任务解决方案(图2)。灵长类动物学习更通用的算法,而RNN通过利用刺激统计来解决问题。这表明,尽管RNN和大脑的最终结果在训练集上可能在行为上相似,但导致成功任务性能的学习规则,因此计算支架的结构,从根本上是不同的。因此,LOOPER 在适应于解决相同任务的不同系统中揭示的计算支架之间的直接比较可能有助于阐明不同网络如何学习和实现解决行为任务所需的计算的异同。
4 个 LOOPER 模型可生成有关系统的可证伪见解
由于LOOPER自然地将神经元动力学划分为离散轨迹,因此LOOPER的一个有用应用是基于观察到的神经元动力学对行为反应进行分类。为了说明如何做到这一点,我们使用了在人类连接组项目(方法)公开提供的心理理论任务中记录的大胆信号。向受试者展示一个 20 年代的视频,该视频具有在屏幕上移动的形状。在一半的电影中,形状的移动方式给人一种错觉,即它们正在表演一场社会戏剧[37],在其余的电影中,它们随机移动,它们的相互作用是严格的物理(例如相互弹跳)。已经表明,功能磁共振成像记录可用于解码受试者是否正在执行心理理论任务或人类连接组项目中的其他任务[38]。在这里,我们试图确定反映受试者对心理互动存在的信念的神经元过程。我们专注于数据集中最模糊的电影,其中66.2%的参与者认为形状没有相互作用,10.9%的参与者认为他们在精神上相互作用,25.2%的参与者不确定。选择最模糊的数据集使我们能够专注于反映受试者对刺激的信念的活动方面,而不是视频特征的差异。
fMRI记录经过预处理(方法)并在受试者回答“不相互作用”的试验中引导,而在提交给LOOPER之前回答“相互作用”的试验中。请注意,LOOPER没有收到有关受试者所做决定的信息。尽管如此,LOOPER 预测在实际响应发生之前,两条轨迹 ~5s 会出现分歧。这些轨迹根据受试者对电影中是否存在心理互动的信念可靠地分离出反应(图4B)。由于fMRI记录中的信噪比较低,轨迹发散的确切时序可能对参数选择很敏感。因此,我们在一系列参数上运行了LOOPER模型,以测试结果的鲁棒性。我们发现,在电影开始之前,两条轨迹的分离可能性最小,在电影期间增加,并在主体响应之前达到峰值~5s(p值<0.001)。这种模式与受试者在电影中积累支持其推定反应(互动与无互动)的证据一致。为了确定 LOOPER 模型是否可推广,我们在每种条件下的 10 次嘘声试验中训练了该模型。然后,我们将来自非重叠验证数据集的实验观察结果投影到模型空间中(方法部分计算支架的验证),并尝试解码受试者对轨迹分配刺激的信念。此解码的准确度约为95%(图4D)。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图4. 使用LOOPER提取的神经元动力学计算支架预测了心智任务理论的选择。
A)“人类心智理论”任务示意图。向受试者展示在屏幕上移动的形状视频,并询问这些形状是否具有心理互动。我们仅在受试者回答“是”或“否”的试验上建立LOOPER模型。B) 从模型构建中排除的验证试验在每个时间步被投影到最接近的模型箱中。计算脚手架的一个典型示例。验证集中的每项试验都根据受试者是否回答“是的,他们确实认为存在相互作用”(橙色痕迹)或“不,他们认为没有相互作用”(蓝色痕迹)进行着色。请注意,这两个条件在影片结尾和响应窗口期间会有所不同。这与整部电影中的信息积累一致,最终以二元决策告终(验证准确率 98.8%,n = 1000)。C)由于fMRI信号中的大量噪声,轨迹发散的确切时间取决于参数。为了确保我们的结果在参数选择方面是鲁棒的,我们探索了参数值对计算支架的影响。绘制每个时间点的平均轨迹数和 95% 置信区间。D)使用LOOPER和fMRI文献(SVM)中使用的标准监督技术解码响应的准确性。所有报告的精度都在验证数据集上。基线SVM分类器使用与LOOPER相同的训练数据(每种条件的10次试验,超过60名受试者)。对于 LOOPER,使用了原始宗地时间序列。对于 SVM,数据经过 PCA(前 20 台 PC,解释 98% 方差)并随时间取平均值。基线模型(橙色)在整个试验时间内的平均值。通过使用基于训练和验证数据集(黄色)计算的前 20 台 PC,分类准确性大大提高。通过取 LOOPER 发现的分离期间的平均值(B 和 C)而不是整个试验(紫色),进一步提高了准确性。但是,这些模型的性能都与LOOPER模型相同(p < 0.001)。我们可以通过大幅增加输入 SVM 的试验数量(绿色)来恢复 LOOPER 级别的精度。E) 在两个条件出现分歧期间最敏感包裹的可视化(回答“是”或“否”)。我们使用与构建 LOOPER 模型相同的引导范式生成 100 个随机试验集。对于每组试验,我们找到感兴趣时间内每个包裹的最大灵敏度指数 d',并在 100 次试验迭代中取这些最大 d' 值的中位数。绘制了前 20 个大脑区域。
https://doi.org/10.1371/journal.pcbi.1010784.g004
然后,我们将LOOPER获得的解码精度与通常用于分析fMRI数据集的传统支持向量机(SVM)进行了比较。我们对数据应用了与LOOPER相同的预处理。我们首先将SVM拟合到预处理fMRI数据的完整时间序列中,但模型过度拟合(训练数据接近完美的准确性,验证数据的机会水平)。在整个试验中平均活动的标准fMRI分析技术也未能解决过拟合问题。因此,为了降低自由度,我们在平均之前将预处理的fMRI数据投影到主成分分析(PCA)空间(20个成分,71%方差)上。请注意,LOOPER 不需要此预处理步骤。用PCA预处理数据并没有显著提高分类性能(图4D,橙色)。然而,当验证数据集中的数据被添加到PCA的计算中时,SVM模型的分类性能显着提高(图4D黄色,p值<0.001)。同样,LOOPER 仅根据原始包裹数据进行了训练。LOOPER预测,轨迹的分离只发生在试验的后半段。因此,我们可能会期望在这段时间内提高分类准确性。为了验证这一假设,我们使用轨迹分离时间段内平均的PC权重(图4B和4C,虚线)拟合SVM模型。事实上,这大大提高了 SVM 分类器的性能(图 4D,紫色)。这种提高的分类精度提供了独立的验证,即LOOPER正确识别了在不同任务条件下出现BOLD信号一致差异的时间窗口。
到目前为止,讨论的SVM模型都没有达到LOOPER在验证集上的分类精度水平(p值<0.001)。近乎完美的训练精度与降低的验证精度之间的差异表明 SVM 过度拟合数据。HCP包括1029名参与者。在排除了缺失数据的参与者和回答“不确定”的参与者后,我们剩下771名参与者。这些参与者中只有109人回答“否”。因此,虽然增加数据集的大小可能会提高 SVM 分类器的性能,但获得足够大的数据集以使这些标准技术的应用健壮是不切实际的。为了估计恢复 LOOPER 提供的准确性所需的数据量,我们将输入 SVM 分类器的自举试验数量增加到 600(每个条件 300)(图 4D,绿色)。在这种数据水平下,监督分类器确实产生了与LOOPER相当的结果 - 仅使用20个试验(每个条件10个)就达到了准确性。请注意,HCP 数据集是迄今为止最大的 fMRI 数据集之一,用于匹配 LOOPER 性能的试验数量超过了 HCP 数据集中可用的试验总数。
由于LOOPER模型可以很容易地映射回神经元活动,我们能够根据受试者是否认为电影包含心理互动来识别在激活方面表现出可靠差异的大脑区域。这是通过量化LOOPER模型的两个轨迹之间的神经元活动差异来实现的,作为在轨迹可靠分离期间观察到的最大d′(图4B,黑色虚线到红色虚线)。为了确保稳健性,我们采用在 100 次引导试验中计算的该最大值的中位数。d′最高的20个大脑区域如图4E所示。注意大脑半球之间惊人的不对称性。在受试者认为存在心理互动的试验之间最可靠地区分的大脑区域主要位于左脑半球。此外,位于与语言处理[39]和社会认知相关的区域(包括背侧前额叶皮层和颞顶交界处)[40,41]附近的区域表现出差异激活。这一结果与受试者正在创造心理互动的叙事性描述的概念是一致的。
5 个 LOOPER 模型准确重建和预测神经元活动
LOOPER 通过假设数据可以通过一维轨迹的集合很好地近似,从而大大提高了其可解释性和泛化性。为了确定这一假设是否显着降低了从简单的LOOPER模型中重建复杂神经元活动的能力,我们构建了几种人工和实验神经元系统的模型:在工作记忆任务上训练的嘈杂RNN(图5A),秀丽隐杆线虫中的泛神经元钙成像(图5B),使用小鼠高密度电极阵列记录的视觉诱发局部场电位(图5C),在工作记忆任务期间灵长类动物前额叶皮层中的神经元放电(图5D),以及心理理论任务期间人类fMRI实验中的血氧水平依赖性(BOLD)信号。有关所用数据集和任务的详细信息,请参阅“方法”部分。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图5. LOOPER模型解释了大部分方差并预测了未来的神经元活动。
使用LOOPER获得的简单模型非常擅长重建在不同系统中观察到的动力学,例如人工递归神经网络(A),秀丽隐杆线虫在自发运动期间的全脑钙成像(B),小鼠视觉诱发的局部场电位(C),工作记忆任务期间灵长类动物前额叶皮层中的神经元放电(D),以及人类执行“心理理论任务”(E)的大胆信号。(A-E)中的顶部面板是实验观察(红色垂直线表示不同的试验或刺激时间)。底板是观察到的活动的LOOPER重建。R2计算每个观察到的试验(即#channels x时间矩阵)和相应的重建试验之间的值。我们还包括实现等效 R 所需的 PC 组件数量2在括号中。LOOPER 模型保留了各种系统和信号类型中数据的大部分方差。LOOPER还能够预测系统的未来神经元活动(F-I)。黑线是单个试验(RNN)或几个试验的自举样本(小鼠→5个试验;猴子→10个伪试验(见正文);粗体信号→60次试验)。顶部四个面板显示了四个记录通道的示例(总共 100 个 LSTM 单元、小鼠 49 个电极、猴子 179 个神经元和人类 264 个包裹)。红线表示 LOOPER 模型的 100 次模拟平均值(阴影区域显示标准偏差)。底部面板显示了跨多个自举子集(或单个试验)和记录通道计算的相关系数的分布。对于每个实验系统,LOOPER 模型是在试验的一个子集上构建的。验证试验(或自举平均值)由试验的非重叠子集构成。每个模拟在试验中的同一时间点开始(黑色实线的开头)。LOOPER 模拟的初始条件由此时最接近观察到的神经元活动的模型箱给出。从LOOPER模型给出的这些初始条件开始的动力学被模拟并投影回观测空间,以便与实验观测进行比较。请注意,选择模拟周期时不存在与任务相关的刺激,因此模拟不需要输入。相关性是在从 t 开始的模拟期间计算的0并继续几个时间步(RNN → 40 个时间步,鼠标→ 50 个时间步,猴子→ 19 个时间步,人类→ 20 个时间步)。中位数相关值为RNN → 0.98,小鼠→ 0.79,猴→ 0.95,人类→ 0.62,(J-M,蓝框,左)。我们还将LOOPER的模拟与使用传统HMM的模拟进行了比较,使用与上述相同的方法(J-M,橙色框,左)。最后,我们使用 LOOPER 和 HMM 模型来尝试解码系统在每个时间点和任务条件下的状态。任务解码率是模型的解码率与给定任务的预期解码率之间的平均差值(Romo任务:在刺激期间为50%,在F2呈现后为100%,心理理论任务:图4B中的分离期间为100%)。平均解码速率如图5J–5M所示(蓝色和橙色框,右)。给定Romo任务的均匀分布零模型的机会水平解码率为25%,对于心智理论任务,该值为50%。请注意,鼠标数据没有关联的任务,因此留空。
https://doi.org/10.1371/journal.pcbi.1010784.g005
为了量化LOOPER重建神经元活动的能力,我们首先将神经元活动映射到LOOPER模型上,然后从LOOPER模型映射回神经元活动(方法部分计算支架的验证)。请注意,虽然预处理步骤利用PCA来减少时间序列数据中的杂散噪声,但所有预测和重建都在单个通道(RNN中的单位,秀丽隐杆线虫和灵长类动物中的神经元,小鼠中的电极和人类的包裹)的水平上。重建的时间序列与实验观测结果非常相似,并且所有数据集的相关性等于或高于~0.8(计算为所有信号的相关性)。因此,将神经元动力学浓缩到简单的LOOPER计算支架上不会导致有关神经元活动的信息明显丢失。我们进一步证明,这种方法适用于各种生物和人工系统,以及在从单个神经元到fMRI BOLD信号的不同空间和时间尺度上进行的记录。
LOOPER 不仅是一个降维工具,而且是一个能够成功预测未来实验观测结果的模型。为了确定这些预测的准确性,我们将图5A-5E中的数据集拆分为相等的非重叠子集进行训练和验证。每个数据集都有来自每个条件的样本。LOOPER 模型是在训练子集上构建的。然后,通过其从验证数据集中预测自举试验样本的动态的能力来验证该模型(预处理中使用的参数的完整列表以及每个数据集的LOOPER参数可以在表1和表2中找到)。为了初始化仿真,将验证样本中的一个点映射到最近的模型箱(图5F–5I中黑色实线的开头)。然后从这些初始条件开始在模型空间中模拟LOOPER模型,并映射回神经元活动(红色实线)。由于 LOOPER 是一个随机模型,因此可以从相同的初始条件开始,从多次模拟中估计平均值和方差(σ,红色阴影区域)。LOOPER 同时模拟所有记录通道中的活动(图 5F–5I 中显示了 4 个采样通道)。在所有记录通道和所有任务条件下计算的相关性分布显示在图5F–5I的底行中。请注意,此图中使用的试验是试验的引导子集。机器学习方法[14]最近成功地准确地模拟了神经元活动的单一试验。用于在图5中进行预测的LOOPER模型也可以准确地模拟灵长类动物工作记忆任务期间在单次试验中观察到的神经元活动(平均相关性= 0.775,S1文本中的图E)。因此,简单的LOOPER模型可以成功预测在不同规模和不同生物和人工系统中记录的复杂神经元信号。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
表 1. 用于预处理的参数。
https://doi.org/10.1371/journal.pcbi.1010784.t001
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
表 2. LOOPER 模型中使用的参数。
https://doi.org/10.1371/journal.pcbi.1010784.t002
LOOPER属于一种称为隐马尔可夫模型(HMM)的通用建模方法,但在构建转移概率矩阵然后简化的方式上与传统HMM实现有很大不同。标准 HMM 算法找到一组状态和转移概率矩阵,在这些状态下,观察到的数据最有可能。相比之下,LOOPER遵循拓扑数据分析方法,基于局部转移概率和轨迹稳定的假设建立动力学模型。为了研究LOOPER使用的修改如何影响模型的定量性能和可解释性,我们将LOOPER与使用贝叶斯网络工具箱[43]中实现的期望最大化[42]算法训练的传统HMM进行了比较。每个数据集都使用与 LOOPER 模型相同的状态空间发现方法进行预处理,并在应用标准对称扩散映射(S1 文本)后进行预处理。贝叶斯优化用于识别最佳超参数。我们发现LOOPER和HMM都能够以相当的精度重建和建模数据(图5J-5M,左)。然而,LOOPER 在从模型状态解码任务条件方面明显优于 HMM(图 5J–5M,右)。因此,LOOPER模型的更高可解释性不会以牺牲高定量准确性和预测未来神经元活动的能力为代价。
讨论
在这里,我们描述了一种方法,该方法提取了适应执行行为任务的神经元网络中出现的简单动力学模型。该模型准确地重建和预测从各种复杂的生物和人工神经元网络获得的神经元活动,以及从固定线虫中执行虚构运动行为的单个神经元的观察量表到执行心理理论任务的人类fMRI。模型的结构与网络动态中表达的信息以及如何处理这些信息密切相关。我们方法的一个基本进步是,相同的LOOPER模型可以应用于不同的神经元网络。跨多个不同神经元网络推广单个模型的能力可能是由于 LOOPER 提取的一维轨迹结构与为任务服务的神经元网络执行的计算之间的密切关系。
这项工作改进了秀丽隐杆线虫[6]的先前结果,其中使用扩散图的最稳定的复特征值定义环。类似的方法也被用于寻找PCA空间中的旋转[8]。虽然在某些系统中取得了成功,但这些光谱方法不太可能推广,因为特征值与单相速度相关,并且无法轻松模拟在多个时间尺度上展开的动力学。LOOPER 通过显式查找轨迹来解决此问题,而不管时间尺度如何。
大脑动力学的研究由于充分捕获生物系统的复杂性及其非线性相互作用所需的参数数量众多而变得复杂。因此,详细的生物物理现实模型在实验上是难以处理的,并且在大多数感兴趣的系统中在概念上是没有揭示的。用于深入了解大脑动力学与它们制定的计算之间关系的一种成功策略是用更易于处理的动态系统(如RNN)取代一个复杂的非线性动力系统——大脑。 然后使用机器学习技术来训练RNN执行类似的行为任务[5,44].因此,与其直接研究实验观察到的动力学,不如在假设类似的任务需求导致类似动力学的出现的情况下研究RNN的动力学。机器学习方法有许多显着的优点,例如出现更现实的复杂神经元活动模式,类似于在大脑中实验观察到的模式[45]。然而,机器学习方法的主要优点是,通过稳定性分析可以更好地理解人工RNN的动力学。对RNN动力学的研究揭示了它们制定的计算与吸引子形成的结构以及连接它们的瞬态之间的密切联系。
虽然对人工RNN中动力学和计算之间关系的研究本身就是一个令人兴奋的领域,但从RNN分析中推断出对大脑的结论依赖于一个关键的假设,即只要两个系统执行相同的任务,RNN的动力学将与大脑中观察到的动力学基本相似。在以前使用此方法分析的相对简单的任务中,这可能是正确的。然而,正如我们在这里展示的,即使在简单的任务中,训练中的细微差异也会导致不同的计算支架。在更复杂的任务中,例如空间导航,RNN可以根据预训练算法的具体情况学习不同的动态[46]。一般来说,不能保证在生物和人工系统中学习的动力学将表现出相同的计算支架。
虽然 LOOPER 实现的现象学建模类型不能直接让我们详细估计系统的稳定性,但 LOOPER 发现的特征与在 RNN 中使用稳定性分析发现的特征密切相关(S1 文本中的图 B)。这并不完全令人惊讶,因为如果从这些状态启动的轨迹在噪声的影响下纠结,LOOPER 会明确地将系统的状态组合到邻域中。如果状态空间中的两个不同位置被同一个稳定的固定点吸引,或者被同一方向的鞍点排斥,就会发生这种纠结[47,48]。与只能应用于模型系统的形式稳定性分析相比,LOOPER提取了一组稳定的轨迹,并仅根据实验观察来识别分支点。在实验和模型系统中提取简单模型的能力可以允许直接比较在生物和人工系统以及不同的生物网络中学习的计算类型。
LOOPER 建立在几种现有建模技术的元素之上,以构建计算脚手架。例如,来自神经元动力学的流形推理(MIND)[3]算法也使用扩散图从高维神经元活动中提取低维流形。虽然MIND试图将系统在流形空间中的位置与行为上显着的变量和神经元活动联系起来,但LOOPER特别专注于识别在流形空间中展开的轨迹。正如我们在这里展示的,每个轨迹都清楚地映射到一个突出的任务条件。在精神上,LOOPER背后的动机类似于切换线性动力系统和自适应局部线性模型等技术[34,49]。LOOPER 和这些方法都试图将整体系统动态表示为更简单系统的集合。然而,在LOOPER如何将整体动态划分为更简单的子系统方面有一个重要的区别。自适应局部线性模型和切换线性动力系统都将整体行为近似为线性动力系统的集合。相比之下,LOOPER专门寻求将系统近似为一维轨迹的集合,而不管沿它们的动力学是否是线性的。这种近似的动机是噪声会降低存储在非线性动力系统中的信息,并且经验结果表明神经元轨迹特别避免发散和纠结[9,23]。正如我们所证明的,这种近似适用于许多实验设置。但是,模型的具体目标取决于其应用。例如,在脑机接口中,对神经元信号进行定量准确的预测和解码,而不是可解释性,是主要目标。虽然LOOPER本身就是一个定量准确的模型,但考虑到足够大的数据集,LFADS [14],HMM [50,51]和SVM [52]等机器学习方法可能会提供卓越的定量准确性。与机器学习方法相比,LOOPER 在 CTD 应用中具有显著优势,因为 LOOPER 构建的模型是可解释的。与机器学习技术相比,LOOPER 的另一个优势是,模型可以建立在具有实验可处理数量的观测值的数据集上。
LOOPER背后的基本假设是神经元动力学可以通过一组一维轨迹很好地近似。在需要对输入序列进行分类的简单实验范式中,此假设在各种系统中都非常有效(包括洛伦茨系统,S1文本中的图F)。目前尚不清楚一维近似是否也足以满足涉及与环境的开放式循环相互作用的更复杂的任务。例如,在空间导航中,MIND中举例的方法可能会为神经元动力学进行的计算提供更多的见解。未来的工作将研究LOOPER背后的一维假设是否在复杂的开放式任务上崩溃。然而,许多现实世界的行为涉及基于一系列刺激的不同替代方案[35,48]。此外,这些任务通常用于实验室环境,以探测神经元动力学中实施的认知过程的各个方面[53-55]。最后,我们在尝试识别神经元记录中的一维轨迹时做出了几种方法学选择。由于对于高维、不完整和嘈杂的神经元记录数据来说,这是一个非常不平凡的问题,因此未来的工作可能会改进用于揭示一维轨迹的特定方法。无论具体的方法选择如何,参与广泛行为突出任务的不同系统的神经元动力学可以通过简单的可解释模型近似的发现是将神经元动力学与计算联系起来的重要进展。
方法
1 道德声明
小鼠数据:本研究中的所有实验均已获得宾夕法尼亚大学机构动物护理和使用委员会的批准,并按照美国国立卫生研究院指南进行。
fMRI数据:有关道德声明,请参阅开放HCP数据集。
猴子数据:参见Romo等人[35]的道德声明。
秀丽隐杆线虫数据:参见Kato等人[56]的道德声明。
2 LOOPER概述
LOOPER 的摘要可以在这里找到,在 S1 文本的图 G 中找到。S1文本中给出了严格的数学描述。LOOPER 包括以下三个步骤。第一步涉及扩散图的构建(S1文本部分非对称扩散图)。然后对该扩散图进行两个聚类步骤。在第一个聚类步骤中,扩散图的各个状态被分层聚类以达到压缩图(S1 文本部分缩减矩阵)。使用标准的最小描述长度算法优化聚类的数量。在实现一维近似的最后一步中,根据修改后的编辑距离将重复的状态序列聚类到轨迹中(S1 文本部分循环查找)。轨迹数通过使用最大似然估计值优化数据重建精度来确定。
该方法需要三个参数:局部邻域的大小、扩散图的再种群密度以及最终模型的箱总数。前两个参数确定如何构建扩散图,而最后一个参数设置如何近似沿轨迹的连续动力学。在S1文本的图H中,我们探讨了不同参数选择对模型重建精度的影响。只有局部邻域的大小对模型性能有明显的影响。局部邻域的大小由计算扩散映射核的最近邻域数设置(S1 文本部分将数据分区为局部邻域)。因此,该参数与数据集中观察到的类似试验的数量密切相关。只要最近邻的数量大约等于试验的数量,模型的行为就是稳健的。
LOOPER 假设对神经元活动的观察足以恢复系统的真实状态空间。虽然在某些系统中观察到的神经元活动足以近似状态空间,但情况并非总是如此。在S1文本部分的状态空间提取中,我们描述了在神经元活动观察不完整的情况下如何近似状态空间。
LOOPER 的第一步是通过找到动力学以线性方式演变的表示来降低非线性动力学的复杂性。这是使用扩散图完成的。局部邻域中观测数据点之间的转移概率与扩散速率成正比。
(3)
其中 D 是距离测量值,σ 是设置局部邻域大小的归一化项。我们使用参数估计每个局部邻域的大小:最近邻数,nn。有关如何分别计算 D 和 σ(nn) 的具体详细信息,请参阅 S1 文本中的距离测量和将数据划分为局部邻域部分。这种方法适用于没有净流量的纯扩散系统。为了使扩散图适应有序时间序列,我们将扩散核集中在下一个观察到的时间步长 xT+1.以这种方式计算的所有实验观测值的扩散概率形成一个转移概率矩阵。
LOOPER 算法的下一步是使用扩散映射状态的分层聚类粗粒度状态空间 X。状态 x 之间的相似性我和 xj定义如下:
(4)
其中 ρ 是相关系数,P(xn∈X|x我) 是扩散映射的第 i 行,它编码从 x 开始的一个时间步长后预期的状态分布我.因此,如果从两个不同状态开始的一个时间步长发现的状态的概率分布相似,那么关于初始条件差异的信息很快就会被遗忘,并且这两个状态可以聚集成一个集群。这样,距离测量在概念上类似于Russo等人[9]中缠结的定义。
此粗粒度扩散图中的聚类数使用目标函数 I 进行优化损失,用于量化从原始扩散图中丢失的信息。原图和粗粒度扩散图的每一行,经过适当的归一化后,就是概率分布函数。为了比较原始地图和粗粒度地图之间的这些分布函数,我们使用标准的信息理论度量,Kullback-Leibler散度(KL散度)。为了提高计算效率,我们只考虑此度量的上限(S1 文本部分减少矩阵)。扩散图描述了系统在一个时间步长后的演变。因此,对原始地图和粗粒度地图的比较直接揭示了短期行为的相似性,但掩盖了长期行为的差异。这适用于测量缠结,但不适用于发散[23]。为了确保粗粒度图和原始扩散图具有相同的发散模式,我们将 I 最小化损失在一系列时间尺度上。选择粗粒度图中的最终聚类数,使得 I损失,受参数数量的惩罚,被最小化。惩罚是使用标准的最小描述长度算法(S1 文本部分减少矩阵)实现的。
(5)
其中 k 是简化模型的大小,n 是原始转移概率矩阵的大小。结果现在是系统动力学的简化表示,仍然尽可能多地解释原始转移概率矩阵的特征。这个粗粒度矩阵被明确构造,以最大限度地减少缠结并保留在原始观测中观察到的分歧。
最小化纠结和发散的自然结果是,系统形成的轨迹将是近似一维物体。因此,该算法的最后一步识别粗粒度扩散图发出的重复状态序列,并将它们组合成轨迹。通常,聚类轨迹很困难,因为不清楚如何比较以不同状态开始和结束的轨迹。我们通过关注轨迹形成的“循环”来规避这个问题。循环可以很容易地通过粗粒度矩阵中从每个状态返回到自身的最可能路径来定义。因此,循环是以相同状态开始和结束的状态序列。相反,轨迹是可能具有不同开始和结束状态的状态序列。轨迹可以很容易地从循环中推断出来,因为当两个循环共享相同的集群时,它们是无法区分的。如果两个环分开,然后重新合并在一起,它们会产生两条轨迹——一条是完整的环路,另一条仅在两个环路偏离时才存在(红色轨迹,图1E)。我们将在方法的描述中交替使用术语“轨迹”和“循环”。
为了执行此聚类,我们构建了与粗粒度模型发出的状态序列的编辑距离,
(6)
其中 S圈(i, j) 是两个状态序列之间的相似性,W我是一组状态,包括第 i 个序列,和 S簇是两种状态之间的相似性。有关查找轨迹和 S 定义的详细信息,请参阅查找环路一节簇.
上述相似性度量用于执行分层聚类。为了确定最终模型中的轨迹数,我们在一系列假定的轨迹计数上优化拟合。为此,沿每条轨迹(α)的动力学沿相位θ进行分箱。这些箱中的每一个都包含一组实验观察结果。为了通过将神经元动力学近似为具有一定轨迹计数的模型来确定丢失了多少信息,我们首先将每个实验观察结果分配给最可能的模型箱。然后,我们发出落入特定模型箱的所有观测值的平均值。拟合优度量化为给定模型在所有箱中的数据的估计对数似然(请参阅 S1 文本部分将循环组装到完整模型中)。为最终模型选择最大化拟合优度的轨迹数。
这个过程的最终结果是一个简单的线性模型(α,θ)T+1 = M ? (α, θ)t,其中 M 是马尔可夫矩阵。α,一旦系统以特定的轨迹开始,它就会沿着θ有序地发展,直到多个α连接在一起。此时,系统可能会从一种α切换到另一种。因此,LOOPER 算法的最终结果是对动力学的简单描述,该动力学由互锁稳定轨迹系统组成。
3 神经元数据
灵长类动物数据使用与Kobak等人相同的管道进行处理[13]。秀丽隐杆线虫数据利用了Kato等人发表的数据[56],并遵循与Brennan 2019中相同的管道[6]。小鼠数据通过Proekt实验室的电生理记录收集。 信号在0.1和325 Hz之间滤波,并下采样至1000 Hz。 噪声通道被移除,并将信号参考为平均信号。fMRI数据是在获得许可的情况下从Open HCP数据集中获得的。预处理是使用HCP MRI数据预处理管道完成的[57]。脑感兴趣区域(ROIs)由Power等人定义[58]。更多详细信息可以在 S1 文本部分找到灵长类动物数据、秀丽隐杆线虫数据、小鼠数据和 fMRI 数据的预处理。
4 计算支架的验证
通过查找每个观测时间点的最接近模型状态(α,θ),将验证数据投影到LOOPER计算支架上。对于每个时间点,将找到到每个聚类的本地 z 得分距离:
(7)
其中 t 是观测数据点的时间,i 是模型箱的索引,xt是时间 t 的实验观察,σ我分别是第 i 个模型 bin 中所有点的平均值和标准差,并且是欧氏距离。要分配 xt到 ,D 的最小值当地在模型图格上方找到。然后可以明确地将每个时间点分配给相位和轨迹恒等式。一旦为每个时间点分配了一个轨迹ID,就可以像S1文本中的图D一样绘制计算脚手架。
正文中报告的验证精度计算为在特定时间窗口内映射到与原始 LOOPER 计算脚手架相同的轨迹 ID 上的验证数据点的百分比。选择时间窗口以与计算对应项保持一致。对 F1 进行分类→平均精度在 1.39s 和 3.19s 之间,记住 F1 →最小精度在 1.39s 和 3.19s 之间,并将 F2 与 F1 进行比较→平均精度在 3.89s 和 5.89s 之间。通过将验证精度与随机分配轨迹 ID 生成的空模型进行比较来计算 p 值。
5 分析
隐马尔可夫模型使用BNT工具箱拟合,并使用贝叶斯优化进行优化。用于拟合的参数可在表 3 中找到。更多详细信息可以在 S1 文本部分隐藏马尔可夫模型拟合中找到。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
表 3. 隐马尔可夫模型超参数。
https://doi.org/10.1371/journal.pcbi.1010784.t003
RNN使用Adam使用10000个随机样本使用PyTorch进行训练。在每个时间步长将噪声注入到LSTM单元的隐藏状态和单元状态中。更多详细信息可以在 S1 文本部分循环神经网络的训练中找到。
支持信息
LOOPER 方法的详细说明。
跳到无花果共享导航
补充在这里,我们提供了LOOPER的逐步数学描述。0.1 步骤1:非对称扩散映射在下面的所有内容中,我们假设数据位于状态空间中。在本节中,我们将描述扩散方式地图用于线性化动态。扩散映射是一种非线性降维技术。与其他非线性降维技术一样,扩散映射利用了非线性流形是当地的欧几里得语。在扩散图中,局部邻域中点之间的距离表示为使用扩散核的转移概率,其中点的概率,x1,过渡到另一个点x2在一个时间步长是:P(x1,x2) =经验(?D(x1,x2)22σ2),(一)哪里D是距离度量和σ是设置本地邻域大小的规范化术语。P当地(x我,xj) =?????P(x我,xj) 如果xj∈NBH(x我)0别处(二)哪里NBH(x我) 是当地社区x我并定义为所有点,x这样D(x我,x)<2σ.所有之间的成对局部转移概率n点被组装成一个n×n全球转型通过应用概率矩阵P当地到每一个n实验观察和归一化使得矩阵是正确的随机振荡指标。该矩阵模拟一个时间步后与局部邻域的扩散。此转移概率矩阵的幂运算会产生较长时间的扩散。这样,动力学的全局非线性结构可以从局部邻域拼接在一起。在方程SB可以应用于数据组装转移概率矩阵之前,距离测量D以及邻里适当的比例σ必须定义。用于完成这些目标描述如下。8月 2022, <>1/31
0.2 距离我们对动态系统建模特别感兴趣。为了解释对于数据,我们将数据的位置及其经验观察到的时间导数(速度)都纳入其中计算点之间距离时的帐户:D合= 1?(1?PD?x)·(1?PDx).(三)哪里PD?x是速度的归一化差,并且PDx是位置的归一化差异。差异就位Dx和速度D?x规范化如下:PD=D(x1,x2)/.maxxD(x1,x),(四)哪里D是上述两个距离度量之一,分母是距离的最大值接管所有观测点。对于位置差,我们使用标准欧几里得距离,由局部噪声的近似值(见部分局部噪声估计).对于速度差异(也按局部噪声的近似值缩放)我们使用余弦距离:D?x(x我,xj) = 1??x我·?xj|?x我||?xj|,(五)哪里·是内积和|·|是矢量的大小。速度是两者之间的距离?x我和下一个观察到的时间点。请注意,D合仅在两点时很小x我和xj彼此靠近并朝着同一个方向前进。因此D合是定义之间距离的自然牛顿方式在动力系统中出现的实验观察。0.3 将数据划分为局部邻域构建扩散图的最大挑战之一是为局部选择正确的大小Eq. SB 的社区。在本节中,我们将介绍如何在 LOOPER 中完成此操作。一旦本地邻域是定义的,必须重新缩放以考虑各向异性扩散。这种重新缩放将在标题为“标题”的部分中解决局部噪声估计.定义本地邻域的一种策略是使用k-最近的邻居。另一种方法设置点云的大小,并将此云中的所有点分配给局部邻域。选择合适的k但是,适当的邻域大小并非易事。这个选择更加困难,因为有12月 8, 20222/31
下载
无花果分享
S1 文本。 LOOPER 方法的详细说明。
包含 LOOPER 方法中使用的所有算法的详细信息,以及正文中使用的分析详细信息。还包括补充数字。
https://doi.org/10.1371/journal.pcbi.1010784.s001
(英文)
确认
我们感谢Brenna Shortal,Drew Richardson批判性地阅读手稿。人类功能磁共振成像数据由人类连接组项目,WU-Minn联盟(主要研究员:David Van Essen和Kamil Ugurbil; 1U54MH091657)提供,由支持NIH神经科学研究蓝图的16个NIH研究所和中心资助;以及华盛顿大学麦克唐纳系统神经科学中心。
引用
1.猴纹皮层的感受野和功能结构。生理学杂志。1968;195(1):215–243.密码:4966457
查看文章PubMed/NCBI谷歌学术搜索
2.莫泽EI,克罗普夫E,莫泽MB。放置细胞、网格细胞和大脑的空间表示系统。神经科学年度评论。2008;31(1):69–89.密码:18284371
查看文章PubMed/NCBI谷歌学术搜索
3.Nieh EH, Schottdorf M, Freeman NW, Low RJ, Lewallen S, Koay SA, et al.海马体中抽象学习知识的几何学。自然界。2021;595(7865):80–84.密码:34135512
查看文章PubMed/NCBI谷歌学术搜索
4.Michaels JA, Dann B, Scherberger H. 到达过程中的神经种群动态比表征调整更好地用动态系统来解释。公共科学图书馆计算生物学。2016;12(11):e1005175.密码:27814352
查看文章PubMed/NCBI谷歌学术搜索
5.Mante V, Sussillo D, Shenoy KV, Newsome WT. 通过前额叶皮层的循环动力学进行上下文依赖性计算。自然界。2013;503(7474):78–84.密码:24201281
查看文章PubMed/NCBI谷歌学术搜索
6.布伦南 C, 普罗克特·保守宏观动力学的定量模型预测了未来的运动指令。电子生活。2019;8.密码:31294689
查看文章PubMed/NCBI谷歌学术搜索
7.马亨斯CK,罗莫R,布罗迪CD。功能上的,但不是解剖学的,前额叶皮层中“什么”和“何时”的分离。神经科学杂志。2010;30(1):350–360.密码:20053916
查看文章PubMed/NCBI谷歌学术搜索
8.Churchland MM, Cunningham JP, Kaufman MT, Foster JD, Nuyujukian P, Ryu SI, et al.到达过程中的神经种群动态。自然界。2012;487(7405):51–56.pmid:22722855
查看文章PubMed/NCBI谷歌学术搜索
9.Russo AA, Bittner SR, Perkins SM, Seely JS, London BM, Lara AH, et al. 运动皮层在解开的群体反应中嵌入类似肌肉的命令。神经元。2018;97(4):953–966.e8.密码:29398358
查看文章PubMed/NCBI谷歌学术搜索
10.苏西洛D,丘奇兰MM,考夫曼MT,谢诺伊KV。一种神经网络,它为肌肉活动的产生找到自然的解决方案。自然神经科学。2015;18(7):1025–1033.密码:26075643
查看文章PubMed/NCBI谷歌学术搜索
11.Stopfer M,Jayaraman V,Laurent G.嗅觉系统中的强度与身份编码。神经元。2003;39(6):991–1004.密码:12971898
查看文章PubMed/NCBI谷歌学术搜索
12.维亚斯 S, 戈鲁布医学博士, 苏西洛 D, 谢诺伊 KV.通过神经种群动力学进行计算。神经科学年度评论。2020;43:249.密码:32640928
查看文章PubMed/NCBI谷歌学术搜索
13.Kobak D, Brendel W, Constantinidis C, Feierstein CE, Kepecs A, Mainen ZF, et al.神经种群数据的解混主成分分析。电子生活。2016;5(2016 年 4 月):e10989.密码:27067378
查看文章PubMed/NCBI谷歌学术搜索
14.Pandarinath C, O'Shea DJ, Collins J, Jozefowicz R, Stavisky SD, Kao JC, et al.使用顺序自动编码器推断单试验神经群体动态。自然方法。2018;15(10):805–815.密码:30224673
查看文章PubMed/NCBI谷歌学术搜索
15.科恩先生,芒塞尔·注意力主要通过减少神经元间相关性来提高表现。自然神经科学。2009;12(12):1594–1600.密码:19915566
查看文章PubMed/NCBI谷歌学术搜索
16.Cueva CJ, Saez A, Marcos E, Genovesio A, Jazayeri M, Romo R, et al.工作记忆和时间编码的低维动力学。美利坚合众国国家科学院院刊。2020;117(37):23021–23032.密码:32859756
查看文章PubMed/NCBI谷歌学术搜索
17.Chaudhuri R,Fiete I.记忆的计算原理。自然神经科学。2016;19(3):394–403.pmid:26906506
查看文章PubMed/NCBI谷歌学术搜索
18.Perrins R. 计算的生物物理学:单个神经元中的信息处理。克里斯托弗·科赫。生物学季刊。1999;74(4):494–494.
查看文章谷歌学术搜索
19.软基·皮质细胞的高度不规则放电与随机EPSP的时间整合不一致。神经科学杂志。1993;13(1):334–350.密码:8423479
查看文章PubMed/NCBI谷歌学术搜索
20.哈努斯C,舒曼EM。复杂树突中的蛋白质平衡;2013.
21.Panichello MF, DePasquale B, Pillow JW, Buschman TJ.视觉工作记忆中的纠错动态。自然通讯 2019 10:1.2019;10(1):1–11.密码:31358740
查看文章PubMed/NCBI谷歌学术搜索
22.雷纳特 A, 宋 P, 王晓杰.通过异构皮质网络中的稳态突触缩放实现强大的空间工作记忆。神经元。2003;38(3):473–485.密码:12741993
查看文章PubMed/NCBI谷歌学术搜索
23.Russo AA, Khajeh R, Bittner SR, Perkins SM, Cunningham JP, Abbott LF, et al. 补充运动区和运动皮层中的神经轨迹表现出不同的几何形状,与不同类别的计算兼容。神经元。2020;107(4):745–758.e6.密码:32516573
查看文章PubMed/NCBI谷歌学术搜索
24.Rabinovich M, Volkovskii A, Lecanda P, Huerta R, Abarbanel HDI, Laurent G. 竞争神经元组网络的动态编码:无赢家竞争。物理评论信。2001;87(6):681021–681024.密码:11497865
查看文章PubMed/NCBI谷歌学术搜索
25.拉杰·通过驯服递归神经网络中的混乱来实现稳健的定时和运动模式。自然神经科学。2013;16(7):925–933.密码:23708144
查看文章PubMed/NCBI谷歌学术搜索
26.纳德勒 B, 拉丰 SS, 科夫曼 RR, 凯夫雷基迪斯 IG, 凯夫雷克迪斯 IG.动力系统的扩散图、光谱聚类和反应坐标。应用和计算谐波分析。2006;21(1):113–127.
查看文章谷歌学术搜索
27.Coifman RR,Lafon S. Diffusion地图。应用和计算谐波分析。2006;21(1):5–30.
查看文章谷歌学术搜索
28.安徒生TD,林CC.统计力学。第203卷.巴特沃斯-海涅曼;2014.
29.使用目标驱动的深度学习模型来理解感觉皮层。自然神经科学。2016;19(3):356–365.pmid:26906502
查看文章PubMed/NCBI谷歌学术搜索
30.Yamins DLK, Hong H, Cadieu CF, Solomon EA, Seibert D, DiCarlo JJ. 性能优化的分层模型预测高级视觉皮层中的神经反应。美利坚合众国国家科学院院刊。2014;111(23):8619–8624.密码:24812127
查看文章PubMed/NCBI谷歌学术搜索
31.舍费尔,齐默尔曼·递归神经网络是通用逼近器。在:国际神经系统杂志。第17卷。国际J神经系统;2007.第253–263页。
查看文章谷歌学术搜索
32.Maheswaranathan N,Williams AH,Golub MD,Ganguli S,Sussillo D.大量循环网络中神经动力学的普遍性和个体性;2019.
33.林德曼SW,Nichols ALA,Blei DM,Zimmer M,Paninski L.分层循环状态空间模型揭示了秀丽隐杆线虫神经活动的离散和连续动力学。生物Rxiv。2019;第621540页。
查看文章谷歌学术搜索
34.阿哈迈德 T,科斯塔 AC,斯蒂芬斯 GJ。捕捉秀丽隐杆线虫行为的持续复杂性。自然物理学。2021;17(2):275–283.
查看文章谷歌学术搜索
35.Romo R, Brody CD, Hernández A, Lemus L. 前额叶皮层中参数化工作记忆的神经元相关性。自然界。1999;399(6735):470–473.密码:10365959
查看文章PubMed/NCBI谷歌学术搜索
36.斯图尔特D,爱W。一般规范相关指数。心理公报。1968;70(3 第 1 部分):160–163.邮编:5681306
查看文章PubMed/NCBI谷歌学术搜索
37.海德F,西梅尔·表观行为的实验研究。美国心理学杂志。1944;57(2):243.
查看文章谷歌学术搜索
38.高 Y, 张 Y, 王 H, 郭 X, 张 J. 使用深度迁移学习从大脑活动中解码行为任务。IEEE Access.2019;7:43222–43232.
查看文章谷歌学术搜索
39.贝尔M,康纳斯B,帕拉迪索马。神经科学:探索大脑。Jones & Bartlett Learning, LLC;2020.
40.Dufour N, Redcay E, Young L, Mavros PL, Moran JM, Triantafyllou C, et al. 在患有和没有自闭症的大样本成年人的错误信念任务期间类似的大脑激活。公共图书馆一号。2013;8(9):e75468。密码:24073267
查看文章PubMed/NCBI谷歌学术搜索
41.萨克斯· 坎维舍·思考思考的人:颞顶交界处在“心智理论”中的作用。神经影像。2003;19(4):1835–1842.密码:12948738
查看文章PubMed/NCBI谷歌学术搜索
42.登普斯特 AP, 莱尔德 NM, 鲁宾 DB.通过 EM 算法获得不完整数据的最大可能性。皇家统计学会杂志:B系列(方法学)。1977;39(1):1–22.
查看文章谷歌学术搜索
43.墨菲·用于 matlab 的贝叶斯网络工具箱。计算科学和统计学。2001;33(2):1024–1034.
查看文章谷歌学术搜索
44.苏西洛D,丘奇兰MM,考夫曼MT,谢诺伊KV。一种神经网络,它为肌肉活动的产生找到自然的解决方案。自然神经科学。2015;18(7):1025–1033.密码:26075643
查看文章PubMed/NCBI谷歌学术搜索
45.巴拉克 O, 苏西洛 D, 罗莫 R, 索迪克斯 M, 雅培 LF.从定点到混沌:延迟判别的三种模式。神经生物学进展。2013;103:214–222.密码:23438479
查看文章PubMed/NCBI谷歌学术搜索
46.Xu T, Barak O. 通过不同的RNN放大器为不同的导航任务实现归纳偏置。arXiv.2020;.
47.Laurent G, Stopfer M, Friedrich RW, Rabinovich MI, Volkovskii A, Abarbanel HD. 气味编码作为一个活跃的动态过程:实验、计算和理论。神经科学年度评论。2001;24(1):263–297.pmid:11283312
查看文章PubMed/NCBI谷歌学术搜索
48.Sussillo D, Barak O. 打开黑匣子:高维递归神经网络中的低维动力学。神经计算。2013;25(3):626–649.密码:23272922
查看文章PubMed/NCBI谷歌学术搜索
49.林德曼 S, 尼科尔斯 A, 布莱 D, 齐默 M, 帕宁斯基 L. 分层循环状态空间模型揭示了秀丽隐杆线虫神经活动的离散和连续动力学。生物Rxiv。2019;第621540页。
查看文章谷歌学术搜索
50.琼斯 LM, 丰塔尼尼 A, 萨达卡 BF, 米勒 P, 卡茨 DB.自然刺激唤起感觉皮层集合中的动态状态序列。美利坚合众国国家科学院院刊。2007;104(47):18772–18777.密码:18000059
查看文章PubMed/NCBI谷歌学术搜索
51.Mazzucato L, La Camera G, Fontanini A. 期望诱导的亚稳活性调节是感觉刺激更快编码的基础。自然神经科学。2019;22(5):787–796.密码:30936557
查看文章PubMed/NCBI谷歌学术搜索
52.科尔特斯 C, 瓦普尼克 V. 支持向量网络.机器学习。1995;20:273–297.
查看文章谷歌学术搜索
53.金岳,沙德伦明尼苏达州。决策的神经基础。http://dx.doi.org/10.1146/annurev.neuro.29.051605.113038。2007;30:535–574.
查看文章谷歌学术搜索
54.博加茨·最优决策的物理学:对两种选择强制选择任务中性能模型的形式分析。心理评论。2006;113(4):700.密码:17014301
查看文章PubMed/NCBI谷歌学术搜索
55.Poulakakis I, Scardovi L, Leonard NE. 耦合随机微分方程和集体决策在双选择强制选择任务中。2010年美国管制会议论文集,ACC 2010。2010;第69-74页。
56.Kato S, Kaplan HS, Schr?del T, Skora S, Lindsay TH, Yemini E, et al. Global Brain Dynamics 嵌入秀丽隐杆线虫的运动指令序列。细胞。2015;163(3):656–669.密码:26478179
查看文章PubMed/NCBI谷歌学术搜索
57.Glasser MF, Sotiropoulos SN, Wilson JA, Coalson TS, Fischl B, Andersson JL, et al.人类连接组项目的最小预处理管道。神经影像。2013;80:105–124.密码:23668970
查看文章PubMed/NCBI谷歌学术搜索
58.Power JD, Cohen AL, Nelson SM, Wig GS, Barnes KA, Church JA, et al. Functional Network Organization of the Human Brain.神经元。2011;72(4):665–678.pmid:22099467
查看文章PubMed/NCBI谷歌学术搜索