《厦门论文发表-纯粹基于 STDP 的装配动力学:稳定性、学习性、重叠、漂移和老化》期刊简介
厦门论文发表-纯粹基于 STDP 的装配动力学:稳定性、学习性、重叠、漂移和老化
抽象
记忆可以通过紧密互连的神经元组(称为程序集)在大脑中编码。Hebbian可塑性的概念表明,这些组装是通过突触可塑性产生的,加强了接受相关刺激的选定神经元组内的循环连接。为了在没有这种刺激的情况下保持稳定,组件需要在塑性规则下自我强化。这种组装维护的先前模型需要额外的快速稳态可塑性机制,通常具有生物学上难以置信的时间尺度。在这里,我们提供了一个纯粹基于兴奋性神经元之间的尖峰时间依赖性可塑性(STDP)的神经元组装生成和维持模型。它使用不规则和随机尖峰神经元和STDP,抑制不相关神经元的连接。我们发现组件不会超过一定尺寸,因为时间上不精确的相关尖峰主导了大型组件的塑性。模型中的程序集可以学习或自发出现。该模型允许静态装配体之间突出、稳定的重叠结构。此外,组件可能会漂移,特别是根据一种新颖的、基于瞬态重叠的机制。最后,该模型表明,组件在老化的大脑中生长,连接性降低。
作者摘要
人们普遍认为,记忆是由彼此之间具有强烈相互联系的神经细胞集合来表示的。迄今为止,尚不清楚这种紧密相连的神经细胞集合是如何形成、持续、变化和老化的。在这里,我们表明,已经有一个关于活动依赖性突触强度可塑性的基本规则可以解释学习或自发形成以及组装的稳定性。特别是,没有必要明确地保持神经元的整体总突触强度几乎恒定,这是以前模型中以与当前实验知识不一致的方式纳入的约束。此外,我们的模型实现了稳定地保持组件之间的许多重叠并生成实验观察到的内存表示漂移的挑战性任务。最后,该模型预测,如果大脑中的突触连接数量减少,正如在衰老过程中观察到的那样,神经元集合底层记忆的大小就会增加。这可能会使衰老大脑中的某些记忆更加强大和突出,但也不太具体。
数字
Fig 9图1图2表1Fig 3Fig 4Fig 5Fig 6Fig 7Fig 8Fig 9图1图2表1
引文: Manz P,梅姆斯海默 R-M (2023) 纯粹基于 STDP 的装配动力学:稳定性、学习、重叠、漂移和老化。公共科学图书馆计算生物学19(4): e1011006. https://doi.org/10.1371/journal.pcbi.1011006
编辑 器: 托马斯·塞尔, 美国布朗大学
收到: 20月 2022, 7;接受: 2023月 12, 2023;发表: <>月 <>, <>
版权: ? 2023 曼兹,梅姆斯海默。这是一篇根据知识共享署名许可条款分发的开放获取文章,该许可允许在任何媒体上不受限制地使用、分发和复制,前提是注明原作者和来源。
数据可用性: 重现我们的结果所需的所有代码都可以在 GitHub 存储库中找到,网址为 https://github.com/axionmonodromy/purely-STDP-assemblies。我们还使用 Zenodo 为存储库分配了 DOI:https://doi.org/10.5281/zenodo.7727880。
资金: RMM通过伯恩斯坦网络(Bernstein Award 2014,01GQ1710)获得了德国联邦教育和研究部(BMBF)的资助,支持这项研究。PM从这笔赠款中获得了薪水。资助者在研究设计、数据收集和分析、发表决定或手稿准备方面没有任何作用。
竞争利益: 提交人声明不存在相互竞争的利益。
介绍
一个广泛使用的长期记忆模型假设,物品通过紧密相连的神经元组件存储在大脑中[1-3]。记忆项由一组神经元表示,这些神经元在记忆召回时共同激活。程序集结构允许从不完整的输入中进行关联调用:由于强大的互连,程序集中部分神经元的激活可以触发整个程序集的重新激活,从而调用完整的内存。每个组件都可以通过依赖于经验的可塑性创建,也可以已经在开发过程中形成[4]。在后一种情况下,通过将预先存在的组件连接到适当的输入和输出神经元,可以形成记忆[5]。神经元组装的形成和维持理论在以前的工作中已经进行了非常详细的研究。新记忆的创造通常使用Hebbian可塑性[6-13]建模:如果一组神经元被共同激活,Hebbian可塑性会增加它们相互连接的强度,从而形成所谓的Hebbian组装。然而,大脑中的记忆网络也显示出持续的自发和不规则活动。如果可塑性在这种活动期间仍然发生,它不应该干扰现有的记忆组件——否则记忆的寿命会短得令人难以置信。Hebbian组件可以在可塑性下自我强化,因为它们的相互关联性导致活动中的更高相关性,这反过来又导致组件内权重的增强。然而,组件维护模型发现,除了Hebbian学习之外,还需要快速的稳态可塑性。这引入了突触之间的竞争,并阻止了组件的病理生长和爆炸活动[5,7-9,11-13]。在实验中已经观察到稳态可塑性,但它比Hebbian可塑性慢得多,因此不足以防止失控的增强[14-18](然而,参见[19]的不同观点和[10,20]通过抑制性STDP实现稳态的小时间尺度)。
实验表明,不同的记忆程序集具有一部分共享神经元,即神经元是两个组件的一部分[21-23];这些重叠的大小似乎对应于程序集编码的概念之间的关联强度。以前通过复发突触可塑性和快速稳态归一化稳定的组件模型通常不会出现明显的重叠[5,7-9,12]。[24]给出了一个具有重量可塑性、结构可塑性、每个连接多个突触和可以存储两个强烈重叠组件的短期凹陷的网络示例。我们将探讨我们纯粹基于 STDP 的模型是否可以保持重叠。
记忆网络研究中另一个感兴趣的主题是它们是否可以产生最近实验中观察到的代表性漂移[25]。这种漂移最近被漂移组件建模,它们自发地相互交换神经元,导致整个网络逐渐诉诸[5]。网络模型结合了快速稳态归一化来稳定组件。我们将探讨我们纯粹基于 STDP 的模型是否可以展示漂移组件。
最后,老化和其他条件与整体连接性下降有关[26,27]。因此,我们将探讨网络中的组件如何适应这种减少。
本文的结构如下:我们首先介绍了尖峰神经元和STDP的模型,并描述了时间平均权重动力学的现有分析近似。作为第一个结果,我们随后显示自发的组装形成。我们获得了不同装配体尺寸中重量增长的解析近似值,以了解数值观察到的装配体形成。接下来,我们研究程序集是否可以通过相关的外部输入来学习。接下来的部分表明,我们的网络可以稳定地保持重叠的组件。然后,我们检查是否可以将我们的模型设置为表现出代表性漂移。最后,我们研究了组装尺寸对网络稀疏性的依赖性,并将我们的结果与衰老对大脑的影响联系起来。
材料和方法
泊松神经元
哺乳动物大脑中的神经网络通常会产生不规则且显然主要是随机的尖峰。为了保证我们的模型网络产生类似的尖峰活动,我们考虑随机线性泊松(或“霍克斯”)模型神经元网络[9,29-31]。此外,此类网络在分析上也易于处理。我们明确地模拟兴奋性神经元。由于生物神经网络中的不规则活动可能是由于平衡状态,其中每个神经元的兴奋性和抑制性输入平衡[28,32-36],我们的模型隐含地结合了抑制神经元,见图1。
缩略图 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
Fig 1. Network, neuron and plasticity model.
(a):网络由反复连接的兴奋性神经元组成,它们产生不规则的随机尖峰。它可以被解释为神经网络的兴奋性群体,其中兴奋性和抑制性神经元产生不规则尖峰的平衡状态[28]。因此,平衡抑制神经元群体隐含在我们的模型中。(b):随机单神经元尖峰的泊松模型:每个神经元的特征在于其瞬时速率λ(t)(上子面板),这取决于传入的尖峰并确定发射尖峰的概率(下子图)。(c):STDP更新的强度是突触前和突触后峰值之间时间差的函数(μ = 1)。
https://doi.org/10.1371/journal.pcbi.1011006.g001
每个神经元i的尖峰活动是一个非均匀泊松过程,其随时间变化的瞬时峰值速率(强度)λ我(t) = 〈S我(t)〉 给定输入尖峰列车至时间 t 和权重 W益是
(1)
这里的尖括号表示使用固定输入尖峰序列和神经元 i 权重的试验平均。我们使用指数衰减的突触内核
(2)
其中 Θ(t) 是重边分布,恒定的外部驱动 λ0.
现在,引入在整个峰值网络动态上试用平均的数量很有用。神经元i的试验平均瞬时速率(强度)为r我(t) = 〈λ我(t)〉,其中尖括号现在表示网络动态的试验平均。对于光谱半径小于 1 的静态 W,试验平均速率动态松弛到矢量 r(t) 恒定的固定点,
(3)
参见[9, 30, 37, 38]。此外,可以解析计算相应的平稳互相关函数Cij(τ) = 〈S我(t + τ)Sj(t)〉 对神经元 i, j 在任意 t 处;在他们读取的频域中
(4)
我们使用矩阵符号和 D 的地方ij = δijr我 [9, 30, 38]。函数 g(t) 的傅里叶变换定义为 。方程 4 中的第一个右侧项是独立泊松尖峰列车与速率 r 的相关性,第二个项反映了网络中诱发尖峰的相互依赖性。如果STDP更新的规模足够小,则可以假设权重动力学相对于神经元动力学是准平稳的。然后方程 3 和 4 仍然大致成立,尽管 W 由于可塑性而随时间变化。
与尖峰时间相关的塑性
我们考虑具有基于对的STDP的尖峰神经元网络,即突触强度的变化取决于突触前和突触后尖峰对的时间滞后。可塑性功能的特征至关重要地决定了突触强度如何在网络中演变。具有对称可塑性函数的网络可以建立神经元组装的结构,而具有大反对称部分的可塑性函数倾向于建立连接的前馈链;然而,参见 [10, 20] 用于具有非对称 STDP 维护程序集的网络和 [12] 的三重 STDP 规则,该规则尽管具有非对称的双尖峰交互部分仍形成程序集。在目前的工作中,我们考虑对称塑性函数,因为它们的简单性和可分析的可处理性,建立在先前使用它们的理论工作之上[5,9]。在啮齿动物海马体的CA3区域发现了对称STDP[39],即在一个被认为用作关联记忆网络并存储程序集的区域[1]。最近,在灵长类动物的初级运动皮层中也观察到近乎对称的STDP[40]。
由具有时滞 t 的尖峰对引起的变化由 STDP 函数 F 给出,
(5)
与 Ap> 0, Ad< 0, |一个p|> |一个d|和 τp < τd,见图1c。我们将整体比例因子μ视为 STDP 函数的学习率。μ是多余的,可以吸收到 A 中p和 Ad,其大小也决定了 STDP 函数的规模。我们保持μ,因为它有助于制定具有相同 STDP 形状但振幅不同的任务条件。对于塑性规则的分析处理,我们设定μ = 1。假设小STDP尺度以确保可塑性和神经元动力学之间的时间尺度分离,则等同于假设小Ap和 Ad.在我们所有的模拟中,参数的选择使得F上的积分为负。
在每个尖峰时间,可塑性对尖峰神经元的突触前和突触后权重进行加法作用,振幅由F给出。具体来说,在突触后神经元的峰值时间,W有一个跳跃样的变化ij之。在突触前神经元的尖峰时间,Wij跳跃 .这可以紧凑地写成
(6)
在这里和以后,我们假设我≠j;在我们的网络中没有自我交互,W第二= 0。我们进一步规定,由于 STDP,任何权重都不能变为负值或超过最大值:如果突触被压低到 0 以下,它将设置为 0;如果突触要增强到超出 的值,则会将其设置为 。
在准稳态重量动力学的制度中,突触功效的时间平均漂移,可以近似为
(7)
其中 Cij(τ)又是神经元I和J的尖峰序列的相关性[29]。我们注意到,随着时间的推移,它具有一的维度。普朗歇尔定理产量
(8)
使用相关函数和 STDP 窗口的傅里叶变换。插入方程 4 的相关函数得到
(9)
参见 [9],其中
(10)
将方程 4 扩展为相对于 W 的幂级数通常很有用 [9, 30]。将序列插入方程 8 的右侧(或直接展开方程 9)会导致 的序列展开 [9]:
(11)
总和项编码来自基序的贡献,其中源神经元分别通过α和β连接的链影响突触后和突触前神经元(同一连接可以多次计数)。如果α = 0(β = 0),则后(前)突触神经元本身是来源。系数 fαβ包含 STDP 窗口的傅里叶变换上的积分和突触核函数的傅里叶变换的幂,
(12)
模拟参数
我们在网络模拟中使用了以下参数,如下图所示。
图 2:网络从初始随机连接开始,其中每个权重独立且均匀地从 .
图3b:网络从初始随机连接开始,其中每个权重都是独立且均匀地从 .我们模拟了 10 种不同的初始条件,然后取所有最终装配体的中位数。
图 4:初始权重矩阵具有与 1-20 互连的神经元和背景连接的集合,如图 2 所示。在刺激期间,神经元21-40从λ = 4.18 Hz的泊松尖峰的单一源输入,输入权重。
图6a:指数为10的神经元具有自发速率λ0= 0.08 赫兹。
图6b:指数为10的神经元具有自发速率λ0= 0.01 赫兹。
图 8a:初始权重矩阵如图 2 所示,但权重来自 。
图 8b: 每 3 × 105s 神经元将其自发速率以概率 p = 0.03 更改为 3 × 105s.过去 3 × 105模拟的所有自发速率都保持在λ0= 0.15 赫兹。
缩略图 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
Fig 2. Spontaneous assembly formation.
Several assemblies (strongly interconnected ensembles of neurons) emerge in a network with initially random connectivity, due to spontaneous activity.
https://doi.org/10.1371/journal.pcbi.1011006.g002
Results
Spontaneous assembly formation
我们首先使用初始非结构化权重矩阵和没有结构化外部刺激来模拟上述模型,以测试其自发组装形成和后续维护的能力。我们发现,对于塑性函数中适当选择的参数,网络权重确实收敛于具有特征尺寸的隔离组件的结构。
未来组装神经元之间权重增加的机制是众所周知的:最初基本上随机重合的尖峰导致一些权重的加强。通过直接和间接耦合神经元,这些权重诱导更多近乎同时的尖峰,从而进一步加强它们。正反馈回路导致权重增加,直到达到[41]。几乎没有耦合的神经元不会表现出类似的近乎同步的尖峰,因此它们的权重增长得更慢,甚至由于长期抑郁而收缩。已经表明,如果神经元之间的总重量强度通过快速稳态额外归一化,则可以自发出现组件[5,9,12,13]。原因是稳态正常化让突触竞争,从而抑制生长较慢的突触。一旦连接性失衡并因此首先发生组装样结构,由于连接的神经元的共尖峰更强,归一化之前组装内突触的重量增加会更强。然后,归一化将隐含组件间连接,并且组件结构合并。
虽然自发组装形成背后的基于活动依赖的可塑性机制仍然存在于我们的网络中,但没有快速的稳态归一化可以引入突触之间的竞争。那么,为什么不是所有的权重都趋向于?换句话说:为什么网络没有变成一个大集合?
均匀连接组件中的塑性
在本节中,我们将论证模型中的程序集如果大小很小,并且它们的最终大小是有限的,则它们会增长。我们用学习规则的凹陷优势和不精确相关的尖峰主导大型组件的可塑性来解释后者。为了模拟装配重量动力学,我们考虑了与突触强度均匀连接的N个神经元的孤立装配的特殊情况。我们计算时间平均体重变化
(13)
(参见公式 7)对于此类组件中的权重,忽略 处的剪切。这表明落在下面的权重是否以及如何大力恢复到它。此外,它表明进一步神经元招募的成功程度,因为招募依赖于在随机增加新神经元后增加新神经元的权重。我们预计程序集大小受到高于 N 的值的限制,该值为负:较大的组件将由于权重的降低而失去神经元,而其他较小的组件往往会增强它们与这些神经元的连接。这将产生组件大小 N 的估计值 的解。假设一个程序集已经失去了神经元,如果另一个程序集可以增强其与神经元的连接,则首选程序集大小为最大化的 N。
为了分析获得装配大小的函数,我们首先从方程 3 计算组装神经元的平均速率
(14)
其中 是分支参数,它给出由组件中的单个尖峰直接诱导的平均尖峰数。N 被限制为,因为对于较大的值,没有具有有限触发速率的平稳网络状态。这反映在方程 14 中几何级数的分歧中。换句话说,稳定的网络需要ρ<1[31,42,43]。 公式 4、8 和 14 产量
(15)
有关详细信息,请参阅 S1 文本中的 A 部分。右手边的第一个项涵盖了不相关的突触前和突触后尖峰的影响,速率为 rj和 r我关于突触强度(Cij(τ) = r我rj对于不相关的尖峰)。第二项和第三项,与 A 成正比p和 Ad,分别涵盖了由于相关尖峰引起的体重增强和抑郁。
我们现在研究在什么条件下,小型组件的重量往往会增加。为此,我们假设小 N ≥ 2,这样 ,与 一起,也适用于我们在整篇文章中使用的参数。然后等式 15 简化为
(16)
我们要求右侧大于零。为了解释这个标准,我们根据增强部分 2A 的积分重写它pτp和令人沮丧的部分 2Adτd的 STDP 窗口并乘以 τs,
(17)
积分 2Apτp和 2Adτd表征增强和抑制的整体强度。λ0τs并权衡突触时间常数内自发的、总是不相关的尖峰的强度与输入尖峰诱导的尖峰。 描述了时间常数如何有效地允许诱导尖峰转化为可塑性:由于我们有小N,低阶连接基序与尖峰生成最相关。它们产生突触前和突触后尖峰,具有τ量级的小时间延迟s.诱发增强或抑制在 2A 时最有效xτx浓缩到一个狭窄的峰,即τx很小。如果 τx低于τs,因为 τs限制诱发相关尖峰的精度。
对于我们论文中使用的参数,满足方程 17。然而,它不适用于过小的情况,请参阅我们在 A 节和 S1 文本中的图 C 中的讨论。对于本文使用的参数,虽然凹陷的整体强度大于增强,但后者的较窄峰(τp < τd)意味着短程尖峰相关性将更有效地触发增强,因此在发射速率较低且低阶连接基序更重要的小型网络中占主导地位。
为了证明装配的大小是有限的,我们忽略了 N 的离散性质,并考虑了 N 接近的渐近行为。为此,我们在方程 15 中插入,除了导致背离的因素,
(18)
(19)
(20)
我们使用等式 10 获得第二行。结果意味着
(21)
因为大括号中的总和和尾随因子是正数。因此,如果 f0< 0 并且有一个 N 为正,将具有正最大值和小于 N 时的零(另请参阅 S1 文本中的相图图 C);因此,我们预计组件增长有限,并假设0<整篇文章都是0。相反,如果 f0> 0,发散到N的正值,其中发射速率也发散,表明足够大的组件继续增长,直到网络产生病理活动。
方程18-20的大括号中的第一个术语涵盖了不相关的突触前和突触后尖峰的影响。随着 N 和 f 的发射速率增加0< 0 中,由于不相关的峰值而导致的 STDP 规则的贡献趋于越来越负值。编码连通性基序对 STDP 的影响的第二项(方程 11)的影响对于足够大的 N 也变得负,这一事实是由于高阶基序的贡献。我们可以通过重新考虑方程 11 来看到这一点:对于均匀连接的组件,它简化为
(22)
(23)
哪里
(24)
请参阅 S1 文本中的 B 节。由于 fαβ(参见等式12),因此fk与 N 无关,k 中的高阶项在方程 23 中与低阶项增长更快。因此,高阶基序与较大的N的重量变化更相关。我们发现对于高订单
(25)
见S1文本中的B节和图A;因此,高阶基序诱发突触抑制。这种洼地是有影响的:对于我们的参数集,λ0τs,在突触电流持续时间内产生的自发尖峰的平均数量远小于神经元传入尖峰产生的平均尖峰数的一半(见表1)。此外,比1小得多。因此,方程 20 中的大括号告诉我们,由于高阶基序而不是组件中尖峰率的整体增加而导致的不精确相关尖峰是导致 for 减少的主要原因。
缩略图 Download:
PPTPowerPoint slide
.PNG大图
.TIFF原始图像
表 1. 参考图中模拟的参数列表。
https://doi.org/10.1371/journal.pcbi.1011006.t001
重要的是,方程25的关系通常适用于任何塑性窗口F,而不仅仅是对于所考虑的对称窗口。我们解释如下:方程 11 和 22 中具有特定指数α和β的术语涵盖了特定连接基序对尖峰相关性的贡献。该基序由一个共同的突触前神经元组成,该神经元分别通过β和α连接的链与神经元j和i分开[9],参见图3c的插图。因此,k = α + β 的更高阶数编码了程序集中长级联尖峰活动的效果。这些级联越长,由于尖峰间间隔及其抖动的总和,其影响的时间分布就越分散和高斯,参见S1文本中的图A。(我们注意到,由于所考虑的模型是线性的,因此确实可以将每个尖峰的产生归因于前驱体尖峰或外部驱动器。方程 24 均匀地将具有不同连接链长度的基序与突触前和突触后神经元相加。对于足够大的k,诱发的尖峰时间差因此在STDP窗口上是等距的、宽的、重叠的高斯,这导致对STDP函数f的积分的依赖性0,至于突触前和突触后不相关的尖峰。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图3. 装配体形成说明。
(a):组件中突触(完全连接,无其他连接,所有权重固定在)的时间平均权重变化(跟踪,未应用)作为其大小 N 的函数,对于 的不同值。实线:理论预测,点:固定均匀装配的数值结果。(b):网络模拟中自发形成的组件的尺寸,具有不同的(蓝点:中位数,误差线:第一和第三四分位数)和相应的组件尺寸,具有均匀耦合的强度,使用稀疏性校正(橙色)计算。下面的连续曲线显示了从方程 15 获得的均匀连接组件尺寸的解析预测,即(绿色)和(棕色)的解。上曲线显示均匀连接的装配体尺寸的分析上限(黑色)。(c):说明给定速率和权重配置下对时间平均重量变化的零阶、一阶和二阶贡献。圆圈和箭头分别代表神经元和突触连接。
https://doi.org/10.1371/journal.pcbi.1011006.g003
时间尖峰相关性的扩大及其影响也可以从(参见方程4)的相互依赖项中观察到,而无需扩展它。S1文本中的B部分(最后一段)表明,它在时域中趋向于双侧指数,衰减时间常数越来越小。在极限中,不再有腐烂;相关函数变为平坦。这与泊松尖峰列车的平坦时域相关函数(参见方程 4 的第一项)和方程 7 一起意味着权重变化仅取决于积分 f0的 F.
图3a显示了等式15中不同值:对于特定装配尺寸的最大值,然后越过零并变得越来越负。我们使用均质装配体的模拟证实了这些结果,其中由于没有剪切的 STDP 而发生的重量更新被跟踪但不应用,然后随着时间的推移取平均值。在图3b中,我们显示了在自发装配形成的网络模拟中,不同值出现的典型装配尺寸。我们发现密集但稀疏的组件,其中某些内部连接较弱或基本缺失,例如,参见图 2 中的第三个组件。对于这些,我们预计最大值和零交叉点的尺寸将大于我们估计的全连接组件。与此一致,我们观察到模拟中较稀疏的程序集往往更大。在图 3b 中,我们通过取组件内部连接的总和 w 来校正缺失连接的影响和,并计算大小 N纠正具有相同 w 的均匀连接组件和重量会有,
(26)
校正后的装配体尺寸与从 的零点预测的尺寸非常匹配,而从最大值 预测的尺寸则更远。这表明组件会增长,直到进一步增长会导致组件内重量的减少。更正的组件尺寸位于以下,并且缩放比例与完全连接组件的上限不同。这与理论预测一致,即达到此尺寸的组件会很快失去组件内的重量,因为 。
曲线的正部分表明,对于我们的参数,增强STDP部分在小氮和中氮中占主导地位。它反映了由于先前工作中精确的尖峰相关性而导致的组件的自发形成,以及它们对于小 N 变大的趋势,请参阅S1 文本中的 A 节。我们注意到,等式 15 可能建议采用极限以简化它,或者假设动态量 N 走向无穷大,这要求系统参数变得无穷小,以保持所有允许 N 的速率有限(参见方程 14)。,但是,这意味着对于所有 N 都变为负数,因为速率-速率-相互作用项占主导地位,请参阅 S1 文本中 A 节的最后一段和图 C。因此,我们的理论预测在这个极限下没有集合形成。
If we truncate our theory to correlations evoked by direct weight connections and common presynaptic neurons [44] (i.e. to the terms f0, f10, f01, f11 in Eq 11), also has a maximum, crosses zero and then tends to negative infinity. This decrease is a purely rate-based effect: it occurs because the magnitude of the rate-rate interaction term proportional to f0 increases quadratically with the firing rate (the other terms are positive and linear in the rate). We compare two examples of from the truncated theory with their full theory counterparts in Fig B in S1 Text. For the larger value of , the maximum and zero of the truncated theory curve occur at higher values of N compared to the full theory. In contrast, leaving out the rate-based term f0rirj在等式 11 中影响不大。因为两种修改的值较小,导致显着且相似的变化;没有基于速率的项的曲线开始比截断的曲线下降得更快,仅超过零。这些观察结果表明,不精确相关的尖峰对于通过方程11中的高阶基序和基于速率的项来限制装配体增长的重要性。它们与渐近方程 20 中基于基序的项的主导地位一致,对于较大的 .
我们得出结论,我们在上一节中描述的由于活动依赖性塑性引起的自发组装形成的基本机制仍然存在于我们的模型中。然而,对于组件尺寸的限制,我们发现了一种新的机制:时间上不精确的相关尖峰主导了大型组件的塑性,并且不允许它们进一步增长。这种不精确性是由于尖峰与其间接产生的尖峰之间的长路径造成的。不精确相关的尖峰的抑制效应由负速率-速率相互作用项和高阶基序的负总贡献所涵盖;两者都与 f 成正比0.等式 15 包括它们的影响,并定量地描述了在我们的模型中自发出现的组件的大小如何保持有限。
存储新程序集
接下来,我们将展示如何通过相关的前馈输入来学习程序集。为新组装招募的神经元以前可能只有弱连接,即它们可能属于组件前面存在的神经元背景。或者,招募的神经元可能已经是其他组件的一部分。在我们的模拟中,在学习阶段,每个要招募的神经元都会从同一来源接收泊松尖峰输入。这刺激神经元几乎同时尖峰,使得它们之间的权重增加。图4显示了网络中产生的重量和尖峰动力学,该网络在刺激之前在弱耦合神经元的背景前面承载一个组件。在时间t = 0s之前,单个组件稳定地存储在网络中,尽管具有持续的可塑性。在t = 0 s时,一组背景神经元接受T的相关刺激刺激= 180 秒。这导致了基本集会的形成。刺激结束后,其突触在较长时间内生长,直到达到完全连接的组件,其中所有互连的突触强度接近 。其余的背景神经元在开始时没有接受相关的刺激,不会形成组装。此外,刺激不会影响已经存在的组件,并且该组件也不会干扰新组件的形成。无花果S1 文本中的 F 显示了汇编学习的另一个示例;这里再次招募了大部分背景神经元,但也有一个神经元已经是两个预先存在的组件的一部分。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图4. 学习网络中的新程序集,从单个程序集开始,否则随机连接较弱。
最初,相关的外部输入刺激新组件的神经元,这导致它们的互连权重增加,从而形成基本组件。然后关闭刺激,网络自行发展;新程序集将完全连接。
https://doi.org/10.1371/journal.pcbi.1011006.g004
组装创建要求受刺激的神经元之间的权重净增强。使用此条件并假设组装神经元之间的权重最初为零,方程 11 在给定输入速率的情况下产生外部输入所需强度的近似分析下限,有关详细信息,请参阅 S1 文本中的 C 节。数值模拟证实了这一界限,并表明噪声允许在较小重量下形成组件,请参见S1文本中的图D。
重叠程序集
实验表明,神经元可以编码多个记忆项目[21-23]。对于记忆的装配模型,这意味着神经元可以是多个装配的一部分,参见图5a,即装配有重叠[45]。这种重叠可能会编码记忆之间的关联。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图5. 重叠的程序集。
(a):重叠说明。(b):具有重叠组件的网络的权重矩阵。基座组件(对角线块)的大小分别为 20 个神经元。
https://doi.org/10.1371/journal.pcbi.1011006.g005
我们发现,对于适当的参数,我们的网络可以稳定地存储具有一些重叠的组件,参见图5b的示例权重矩阵。然而,我们也观察到重叠给我们的模型带来了挑战:重叠的组件要么倾向于合并,要么重叠的神经元倾向于与它们所属的组件之一断开连接,从而消除重叠。第一种情况尤其发生在重叠组件的大小明显小于可能导致 的尺寸时。我们假设在这种情况下会出现反馈循环:重叠导致组件之间的相关性,这有助于形成额外的重叠,直到组件完全融合。另一种情况发生在两个程序集的大小接近 时。我们假设,在这里,重叠神经元的较高放电率和由此产生的突触抑制增加意味着重叠由于重量动力学的波动而更有可能消失。
关于重叠问题背后的机制的假设提出了两种解决方案,网络可以如何解决这些问题:首先,如果以高速率发生的突触长期抑制限制了神经元的连接,那么自发速率显着较低的神经元可能能够同时连接到多个组件。在图6中,我们展示了自发放电率较低的神经元如何加入第二个组件。在图(a)中,具有较低自发速率的神经元最初已经部分连接到另一个组件。然后,此部分连接与第二个组件产生足够的相关性,以诱导连接的完成。在这种情况下,初始部分连接和较低的λ0是创建这种重叠所必需的。对于更低的 λ0,通过动力学的固有随机性,通过随机选择的装配自发出现重叠,如图 6b 所示。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图6. 创建重叠。
(a):由于可塑性,部分重叠会随着时间的推移而自我完成。(b):自发放电率较低的神经元出现重叠。
https://doi.org/10.1371/journal.pcbi.1011006.g006
我们注意到,我们使用一个简单的分析规则来确定形成重叠的候选神经元的自发速率。为了获得它,我们考虑两个尺寸为 N 的全连接组件。我们假设重叠神经元的总放电率,一旦它连接到两个组件,就等于典型神经元的放电率,这些神经元只是单个组件的一部分。如果存在重叠,则一个程序集中的放电速率将通过重叠神经元对另一个程序集中的放电速率产生很小的影响。如果我们忽略这种影响,典型的神经元速率由方程14给出。超出自发率的超额率λ0因此,是由于来自组件中其他神经元的输入。重叠神经元x接收的输入是典型神经元的两倍,因为它是两个组件的一部分。因此,超出其自发速率的超额是 。如果我们称其基线速率为 λx,0,我们得到一个重叠神经元的总速率
(27)
要求结果
(28)
我们发现,有了这种自发速率,自发重叠形成是可能的,并且重叠神经元的放电速率与我们的预测非常一致,参见S1文本中的图E。然而,可能的自发组装形成的确切阈值也取决于适当的学习率和网络中的随机性。
维持重叠的第二种方法是让大多数或所有神经元成为多个组件的一部分。在这种情况下,两个组件的融合似乎不太可能,因为所有组件和神经元都同样饱和。
事实上,在大脑中,我们期望大多数或所有神经元是不止一个组件的一部分[21,45]。为了测试我们的网络是否能够维持同样突出的重叠结构,我们考虑了一个相互交织的组件网络,其中每个神经元恰好是两个组件的一部分。我们选择尺寸为 n 的相同尺寸的组件一个以及重叠结构,使得对于任何给定的程序集,其每个神经元都与不同的程序集共享。换句话说,任何两个程序集之间的重叠由一个神经元或 1/n 的分数组成一个每个程序集。这意味着总共有 n一个+ 1 个组件,并且设置需要 N = n 的网络一个(n一个+ 1)/2 个神经元。值得注意的是,具有相同数量和大小的程序集的网络,其中每个神经元只是一个程序集的一部分(没有重叠),将需要两倍的数量,(n一个+ 1)n一个神经元。图7显示,这种结构在STDP规则下在很长的时间尺度上是稳定的。程序集的大小为 n一个= 19;因此,两个组件之间的典型重叠(参见下面的数值结果)为 1/N一个= 1/19 ≈ 5.3%。随机相关性会导致额外的组件外连接出现(更准确地说:加强)和组件内连接消失(减弱)。为了证明单个权重的这些偏差是瞬态的,我们在图7b和c中分别跟踪了装配外权重的加强和装配内权重的减弱。图7b的上面板显示了附加组件权重随时间推移的总和,表明没有正漂移,即随着时间的推移,不属于存储的组件结构的权重没有总体增加。下方面板显示了装配外重量随时间推移与在五个参考时间点观察到的装配外重量的 Pearson 相关性。随着与参考时间点的距离增加,相关性衰减到机会水平,表明没有出现强化的附加组件权重的持续模式。图7c类似地显示了最大(最佳)和实际装配内重量之间的差异。上图显示这种差异没有总体增加,即装配结构没有整体衰减。下图显示组件内权重减弱的模式是瞬态的。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图 7. 交织在一起的装配网络。
(a):初始权重矩阵(左侧)和模拟后的权重矩阵超过106s(右侧)。(b,上):装配体外重量的总和,即最初为零且装配体结构得到最佳实现的重量的总和。总和作为总初始权重的一小部分给出。(b,较低):装配外重量与六个不同参考点的重量的相关性。(c,upper):不存在的装配内权重的总和,即装配内重量与其初始值和最优值的距离之和。总和作为总初始权重的一小部分给出。(c,较低):如 (b,较低) 表示不存在装配内重量。
https://doi.org/10.1371/journal.pcbi.1011006.g007
漂移组件
实验表明,随着时间的推移,记忆表征不需要由相同的神经元组成,但实际上可以在不影响行为的情况下交换神经元[25],这种现象称为表征漂移。这可能是因为记忆组件通过逐渐在彼此之间交换神经元而漂移[5]。渐进式交换意味着,在每个时间点,每个组件都存在,并且通过从一开始就遵循其演变过程而明确地识别。在下文中,我们展示了我们的模型网络可以产生漂移组件。漂移是由于两种替代机制而发生的:(i)由于高权重塑性噪声而导致组件之间的神经元交换,如[5]所示,以及(ii)由于自发尖峰速率的调制而形成时间重叠。漂移是否由机制(i)引起,主要取决于学习率μ:图8a显示了两个网络中具有不同μ值的装配动力学,而所有其他参数保持不变。具有较小μ的网络具有固定组件。相比之下,具有较大μ的网络表现出漂移组件。具体来说,在这个网络中,形成组件的神经元集合随着时间的推移而完全变化(S1文本中的图加)。同时,人们可以通过在短时间间隔内比较其组成神经元来跟踪组件的身份;一次形成它的神经元可以明确地与此后不久形成它的神经元匹配,因为这两个融合之间的差异仍然很小(S1文本中的图Gb)。我们可以将这种漂移的发生解释为重量动力学波动的影响。描述的时间平均重量动力学加强了同一组件中神经元之间的连接,同时抑制了不同组件的神经元之间的连接。然而,重量动力学中足够大的波动仍然可能导致神经元在其组件内失去连接并形成与其他组件的连接。这些波动的大小由μ决定,如果它们足够大,则神经元切换组件的概率是有限的,有关详细讨论,请参见[5]。如果μ太大,强烈的波动会阻止组件的形成。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图8. 漂移组件。
(a):在嘈杂的尖峰活动和由此产生的重量波动中漂移。下部(μ = 0.1,上部)和较高(μ = 0.145,下部)学习率的装配动力学。该面板显示了不同时间点的连接矩阵 W。最初,权重矩阵是随机的(左)。t = 8 之后 × 105的集会自发出现(中)。对神经元指数进行排序以揭示它们(参见图2)。此后继续模拟,这表明对于较低的学习率,组件是静态的。相反,对于更高的学习率,程序集漂移。由于组件交换神经元,耦合矩阵看起来越来越非结构化。但是,对索引重新排序会显示程序集在每个时间点都得到维护。(b):通过内在神经元特性的瞬态变化和由此产生的瞬态重叠进行漂移。神经元的自发放电率在缓慢的时间尺度上变化。这导致重叠的瞬时出现,参见图6b。当重叠消失时,神经元随机决定其中一个组件,从而导致漂移组件。
https://doi.org/10.1371/journal.pcbi.1011006.g008
在第二种机制中,神经元切换组件是一个两步过程。第一步中,具有足够低的λ0自发地形成与附加组件的连接,如图6b所示。然后,当 λ0再次增加此神经元失去与其中一个程序集的连接。因此,神经元可以离开它所连接的任何一个程序集——如果它失去了与最初连接到的程序集的连接,则它已经切换了程序集。如果这种情况对于网络中的许多神经元来说足够频繁地发生,这也会导致缓慢时间尺度上的整体漂移,如图8b所示。
改变突触连接
我们最终将我们的组装模型应用于突触连接发生变化的网络。这是由与衰老相关的过程引起的:解剖学研究表明,老化皮层的特征是突触棘[26]和突触前末端[27]的数量减少。这些变化可以解释为神经元之间连接的稀疏性增加和/或突触强度的整体减弱(因为神经元之间的连接通常由多个突触组成)。我们可以通过将随机选择的权重矩阵的一部分条目永久设置为零来对前者进行建模。后者可以通过递减来建模。图3a显示了减小的效果:它将零点和典型装配尺寸向更大的N移动。增加的稀疏性同样降低了给定尺寸的装配的分支参数,因此也将零点和特征装配尺寸向更大的N移动,参见图9a。因此,在稀疏度较高的网络中,自发形成的组件更大,参见图9c。此外,图9c表明,较小的学习率进一步增加了形成较大组件的趋势。我们观察到,如果网络中的组件尺寸明显小于图 3a 和 9a 预测的特征尺寸,则组件将合并形成更大的组件,参见图 9b。这表示内存容量的损失。假设在代表密切相关的记忆的大脑组件中合并(由于现有的重叠),在此过程中,整体记忆内容变得不那么详细和分化。同时,召回期间的神经元活动增加,因为较大的组装体尺寸表明神经资源的使用效率较低。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图 9. 增加网络稀疏性的影响。
(a):如图3a所示,装配内连接概率为p的装配的时间平均重量变化,作为不同p值的尺寸的函数。较低的 p 值导致 的过零偏移到较大的 N。低电平的模拟收敛缓慢,这反映在较大的误差线上。(b):随着连通性稀疏性的增加,装配体结构变得更粗糙(更少、更大的装配体)。该面板显示了网络的权重矩阵,其中神经元之间存在连接的概率p从p = 1.0(上子面板,自发组装出现后)降低到p = 0.7(下子面板,重新平衡后)。(c):典型装配的大小对网络连接概率p和学习率μ的依赖性。该面板显示了具有随机初始连通性的网络中自发形成装配体的中位数大小。白色区域表示活动变得病态的参数区域,即发射速率发散。
https://doi.org/10.1371/journal.pcbi.1011006.g009
讨论
我们已经研究了网络中的装配体,其可塑性完全取决于尖峰时序。我们发现网络稳定地存储程序集,这些程序集可能会自发出现或被学习。此外,组件可以有重叠,自发漂移并适应不断变化的网络属性。
在生物尖峰神经网络中,突触效率的变化在很大程度上取决于STDP,其中抑制和增强是突触前和突触后尖峰之间时间滞后的函数[46-48]。组装可以通过其成员神经元的共尖峰来保持,这加强了它们的互连。如果神经元的总输入不受约束,则大型组件会为每个成员神经元生成大量输入,从而高度可靠地共同激活它们。此外,较大的组件对其他神经元产生更强的输入,从而倾向于招募它们,从而使这些组件生长。这会产生一个正反馈回路,如果没有约束机制,它会导致过度的装配增长。因此,先前关于组装网络的工作通常会增加额外的稳态可塑性,通过快速归一化限制神经元的总输入强度[5,7-9,11-13]。这减少了由此产生的过度装配增长。然而,在神经生物学实验中观察到的稳态可塑性比防止失控的组装生长所需的稳态可塑性要慢得多[14-18]。
因此,在目前的工作中,我们研究了纯基于STDP的可塑性网络中的组件。我们发现,以抑郁为主导的STDP规则(STDP窗口的积分为负)通过两种机制限制了组件的生长:一方面,组件中神经元的峰值速率随着组装大小而增长,这增加了基于速率的基于时间平均权重变化项的抑制效应。另一方面,高阶连通性基序对时间平均权重变化的贡献越大,组件越大,因为更长的尖峰级联变得更加可能。此外,对于足够高的阶数,基序的适当总和贡献与 STDP 窗口的积分大致成正比,因此为负数。因此,纯基于烧制速率的项和高阶基序的贡献减少甚至颠倒了重量在大型组件中增长的趋势。因此,神经元更容易离开较大的组件,例如加入另一个较小的组件,这会导致互连权重的更大增长。类似于我们描述的纯基于触发速率的效应的机制已被证明可以稳定接收前馈输入的单个神经元的输出尖峰速率,因为基于速率的项的强大优势最终会导致可塑性符号的逆转[49]。另一项相关工作[10]展示了在循环兴奋和抑制到兴奋连接的STDP网络中学习静态,非重叠的组装。这些程序集至少维护几个小时。因此,兴奋性STDP是平衡的(STDP窗口上的积分约为零),使得抑制性STDP实际上要快得多。这在兴奋性神经元中产生速率稳态。在我们的模型中,兴奋性STDP曲线上的积分为负。与速率稳态一样,这限制了最大平均兴奋性峰值速率。与速率稳态相比,它还允许更小的权重,例如在我们的网络中具有组装和背景神经元。我们注意到,[9] 中的快速权重稳态是这样实现的,它也只约束神经元的最大输入和输出权重总和。我们进一步注意到,在生物学中观察到高度多样化的平均峰值率[50]。
我们研究了具有对称塑性函数的网络,这是基于过去的理论工作[5,9]和实验结果[39,40]。然而,实验也发现STDP窗口强烈不对称,可塑性对神经活动细节的依赖性超出了尖峰对之间的时间差异[47,51,52]。最近的理论研究表明,具有这种STDP规则和稳态的组装形成[10,12,20]。 由于高阶网络基序的贡献通常收敛于任何 STDP 函数,趋向于 STDP 函数上的积分的倍数(参见方程 25),我们预计我们的机制对程序集的限制也应该相当普遍地起作用。先决条件是不规则的活动和 STDP 函数,该函数允许小型组件的增长并具有负积分。重要的是要看看我们的组装增长限制机制是否也适用于具有强烈不对称和更生物学细节的STDP规则的网络。
我们的模型网络产生不规则的概率尖峰活动。这与实验观察到的皮层不规则尖峰一致。在我们的模型中,通过使用泊松尖峰神经元模型来保证尖峰的不规则性。在生物神经网络中,通常假设它是由单个神经元的输入波动驱动的尖峰动力学引起的,如果兴奋性和抑制性输入的总体平衡,就会发生这种情况。如果兴奋性突触权重是可塑性的,就像我们的模型一样,这种平衡可能通过抑制性可塑性来维持[6-8,10]。在未来,研究我们在具有明确建模的神经元兴奋性和抑制性群体的网络中组装生长限制的机制将非常重要。因此,单个神经元不应该本质上产生泊松尖峰,而是例如积分和火的类型。
我们观察到,我们的网络能够保持突出的重叠结构,其中每个神经元属于多个组件。装配结构饱和并保持稳定。特别是,额外增加的连接是稀疏和瞬态的。以前的相关工作没有显示出同样突出的重叠结构[5,7-10,12,24],也许是因为大多数假设的快速稳态归一化引起了组件之间更强的竞争。 这可能会迫使神经元决定一个组装。具有重叠的网络允许更经济地使用神经资源,从某种意义上说,可以存储更多特定大小的程序集,在我们的示例网络中,其数量是没有重叠的两倍。在我们的模拟中,装配体之间的重叠约为 5%。这与大脑中代表相关概念的组件估计的重叠一致[45]。随机选择的程序集的重叠较小,约为 1%。我们的研究结果提出了各种未来的研究问题。我们已经演示了具有对称装配图案的高度突出的重叠结构,其中任何两个装配体都有重叠,并且所有装配体以及所有重叠都具有相同的大小。数值模拟表明,我们仍然可以存储与这些模式类似的模式,但缺少一些重叠。未来的研究应该解决是否以及如何存储具有与大脑估计的相似不对称和重叠模式的组装模式的问题。不均匀的神经元特性,如不同的自发尖峰率可能有助于实现这一目标。在此上下文中,研究如何将新程序集与旧程序集的模式进行正确的重叠存储也很重要。最后,目前还不清楚在神经网络中是否会出现具有高度突出重叠的对称或不对称装配模式。缩小焦点,研究两个组件之间的重叠如何演变以及在什么条件下变得稳定将是很有趣的。对这种演变的理论描述需要考虑具有动态变化重叠的组件之间的来回交互。参考文献[45]最近研究了非塑性网络中固定重叠组件之间的相互作用。在微观层面上,我们的研究结果建议更详细地研究神经元何时连接到两个组件。为了解决这个问题,可以分析计算具有两个组件的测试神经元的连接权重概率,类似于 [5] 中神经元在程序集之间切换的描述。与 [5] 中解决的有效一维问题相反,没有稳态权重归一化将为我们的模型产生二维减少的权重空间。
我们的模型网络可以稳定地在不属于任何组装的神经元背景前面保持程序集。这种情况可能与尚未存储太多内存的早期开发特别相关。以前的相关工作通常假设整个空间由组件平铺[5,7-10,12]。 原因可能与突出的重叠结构相似,即快速稳态可塑性具有迫使神经元进入组装的强烈趋势。参考文献[24]显示了网络中弱连接神经元背景前面的组装,这些神经元具有结构可塑性和神经元之间每个连接多个突触。
我们网络中的程序集可能会漂移。这种组装漂移可以解释实验观察到的大脑中记忆表征的漂移[5,25]。在我们的模型中,组件通过交换神经元漂移。在第一个模型中,这种交换源于由于噪声尖峰引起的足够大的突触重量波动,如[5]。除了STDP,文献[5]必须假设存在快速体重稳态,这有助于保持代表性结构完整。我们注意到,在斑马鱼最近的自发组装形成模型中,组装也交换神经元[13],该模型也假设快速稳态。但是,程序集会分解并合并,因此不会漂移。相比之下,我们的漂移组件模型都只需要 STDP 作为塑性机制。我们的第二个模型进一步引入了一种新的神经元交换,从而引入了漂移机制:对于高自发速率,每个神经元属于一个组件。如果网络中一个神经元的自发速率瞬时下降,则另一个组装的突触权重增加,使得神经元属于两个组装。当内在速率恢复时,其中一个组件的突触权重减弱。这可能会消除神经元最初所属的组件的强权重,从而诱导切换到另一个组件。这一观察结果提出了大脑中表征漂移的新的一般机制:单个神经元特性的瞬时(或持续)变化可能导致突触权重的变化。这些反过来又诱导神经元所代表的特征发生变化。因此,突触权重和表征的变化可能比内在神经元性质的变化更持久。
由于在老化的大脑中,整体连接性降低[26,27],我们已经探索了这种减少对模型网络中组件的影响。我们观察到组件的大小与网络中的连接概率成反比。我们期望可以相当普遍地观察到类似的关系,例如在模型网络中,组件通过快速稳态稳定。特别是,在所有其他参数相同的情况下,稀疏网络应该会导致在召回期间激活更大的组件。这与观察到的相同任务的神经活动在老年人中更强[53]是一致的,其中神经网络的连接更稀疏。增加的组装尺寸和由此产生的更强烈的活动在重新激活期间也可能解释为什么在老年受试者中更生动地体验情景记忆[54]。在我们的模型网络中,我们观察到,如果网络变得越来越稀疏,程序集会合并到更大的程序集。这种合并也许可以解释为什么情景记忆在衰老的大脑中变得不那么详细[54,55]。
支持信息
支持分析和数字。
跳到无花果共享导航
全连接装配体中的时间平均重量变化泊松模型神经元在频率空间中的相关函数读取?C(ω) =?C0(ω) +?C1(ω) = 2πδ(ω)RRT+ (1??一个(ω)W)?1D1??一个(?ω)WT?1,(S.1)见正文等式4。用于均匀耦合的组件N具有循环权重 ? 的神经元w和相同自发利率λ0,所有价格r我是一样的,r我=:r=λ01?(N?1) ?w,(S.2)见等式14。这修复了方程 S.1 的第一个右侧项和D=r1.W对角线上有零,并且否则条目 ?w.因此,等式S.1的第二个右边项可以写成?C1(ω) = (1??一个(ω)W)?1D1??一个(?ω)WT?1=r(α+1+β+JN)?1(α?1?β+JN)?1,(S.3)哪里JN是N×N一的矩阵,α±= 1 + ?w?一个(±ω),和β±=??w?一个(±ω).我们得到矩阵通过假设它们具有相同的一般结构,即使用 Ansatz(α±1+β±JN)?1=γ±1+δ±JN.(S.4)这会产生γ±=1α±=11 + ?w?一个(±ω),(S.5)δ±=?β±α±(α±+Nβ±)=?w?一个(±ω)(1 + ?w?一个(±ω))(1??w?一个(±ω)(N?1)).(S.6)就γ±和δ±,C1(ω) 读取?C1(ω) =r(γ+1+δ+JN) (γ?1+δ?JN)=r(γ+γ?1+γ+δ?JN+γ?δ+JN+Nδ+δ?JN).(S.7)由于网络中没有自动点,我们只对非对角线元素感兴趣,?C1我?=j(ω) =r(γ+δ?+γ?δ++Nδ+δ?).(S.8)突触核方程 2 的傅里叶变换为?一个(ω) =11 +iωτs,(S.9)这样?C1我?=j(ω) =r?w(1 +iωτs)(1?iωτs)(1 +iωτs+ ?w)(1?iωτs+ ?w)(1?iωτs?(N?1) ?w)++?w(1?iωτs)(1 +iωτs)(1?iωτs+ ?w)(1 +iωτs+ ?w)(1 +iωτs?(N?1) ?w)++N?w2(1 +iωτs)(1?iωτs)(1 +iωτs+ ?w)(1 +iωτs?(N?1) ?w)(1?iωτs+ ?w)(1?iωτs?(N?1) ?w).(S.10)1
对于塑性窗口方程 5 的傅里叶变换,我们有?F(ω) =2一个pτp(1 +iτpω)(1?iτpω)+2一个dτd(1 +iτdω)(1?iτdω)=?F(?ω).(S.11)插入均衡器。S.1 和 S.2 进入等式 8 给出?Wij(N) =12πZ∞?∞dω?Cij(ω)?F(?ω)=f0λ20(1?(N?1) ?w)2+12πZ∞?∞dω?C1ij(ω)?F(?ω).(S.12)插入均衡器。S.2、S.10 和 S.11 进入等式 S.12 的结果是12πZ∞?∞dω?C1ij(ω)?F(?ω) =12πZ∞?∞dω2π?w(1 +iωτs)(1?iωτs)(1 +iωτs+ ?w)(1?iωτs+ ?w)(1?iωτs?(N?1) ?w)++?w(1?iωτs)(1 +iωτs)(1?iωτs+ ?w)(1 +iωτs+ ?w)(1 +iωτs?(N?1) ?w)++N?w2(1 +iωτs)(1?iωτs)(1 +iωτs+ ?w)(1 +iωτs?(N?1) ?w)(1?iωτs+ ?w)(1?iωτs?(N?1) ?w)××2一个pτp(1 +iτpω)(1?iτpω)+2一个dτd(1 +iτdω)(1?iτdω)λ01?(N?1) ?w.(S.13)这个积分可以用残差定理直接计算出来。连同零阶项由方程 S.12 给出,我们得到以下时间平均权重变化的闭式表达式:?Wij(N) =2λ20(一个pτp+一个dτd)(1?(N?1) ?w)2++λ0一个pτp?w(2?(N?2) ?w)τp+ (2?(N?2) ?w?(N?1) ?w2)τs(1 + ?w)(1?(N?1) ?w)2(τs+ (1 + ?w)τp)(τs+ (1?(N?1) ?w)τp)++λ0一个dτd?w(2?(N?2) ?w)τd+ (2?(N?2) ?w?(N?1) ?w2)τs(1 + ?w)(1?(N?1) ?w)2(τs+ (1 + ?w)τd)(τs+ (1?(N?1) ?w)τd),(S.14)正文 等式 15.右手边的第一个术语对所有可接受的术语都是否定的N因为对于我们的网络f0<0. 由于限制N <1 +1?w条款 2?(N?2) ?w, 2?(N?2) ?w?(N?1) ?w2和 (1?(N?1) ?w),其中出现在分子和分母的第二和第三右侧项中,均为正数。因此,右手边的第二个项是正数,而第三个是负数,因为一个d<0.为了表明 ?w→0 我们有?Wij(N)<0 全部N,我们首先分离出始终为正的因子 1/(1?(N?1) ?w)2在等式S.14中,?Wij(N) =2λ20(一个pτp+一个dτd)++λ0一个pτp?w(2?(N?2) ?w)τp+ (2?(N?2) ?w?(N?1) ?w2)τs(1 + ?w)(τs+ (1 + ?w)τp)(τs+ (1?(N?1) ?w)τp)++λ0一个dτd?w(2?(N?2) ?w)τd+ (2?(N?2) ?w?(N?1) ?w2)τs(1 + ?w)(τs+ (1 + ?w)τd)(τs+ (1?(N?1) ?w)τd)!×1(1?(N?1) ?w)2.(S.15)2
下载
无花果分享
S1 文本。 支持分析和数字。
https://doi.org/10.1371/journal.pcbi.1011006.s001
(英文)
确认
我们感谢Sven Goedeke对手稿的有益评论。
引用
1.Buzsáki G. 神经语法:细胞组装、突触和阅读器。神经元。2010;68(3):362–385.密码:21040841
查看文章PubMed/NCBI谷歌学术搜索
2.Gerstner W,Kistler WM,Naud R,Paninski L.神经元动力学:从单个神经元到认知网络和模型。剑桥大学出版社;2014.
3.Holtmaat A,Caroni P.学习中神经元组装形成的功能和结构基础。纳特神经科学。2016;19(12):1553.密码:27749830
查看文章PubMed/NCBI谷歌学术搜索
4.彼得里 T, 罗马诺 SA, 佩雷斯-舒斯特五世, 布朗热-威尔 J, 坎达特五世, 松布雷 G.自发活动空间结构的出现与视觉输入无关。细胞代表 2017;19(5):939–948.密码:28467907
查看文章PubMed/NCBI谷歌学术搜索
5.Kalle Kossio YF, Goedeke S, Klos C, Memmesheimer RM. 用于持久记忆的漂移组件:神经元转换和无监督补偿。美国国家科学院院刊,2021;118(46)。
查看文章谷歌学术搜索
6.Vogels TP, Sprekeler H, Zenke F, Clopath C, Gerstner W. 抑制性可塑性平衡了感觉通路和记忆网络中的激发和抑制。科学。2011;334(6062):1569–1573.密码:22075724
查看文章PubMed/NCBI谷歌学术搜索
7.Litwin-Kumar A,Doiron B.通过突触可塑性形成和维持神经元组装。纳特公社。2014;5(1):1–12.密码:25395015
查看文章PubMed/NCBI谷歌学术搜索
8.Zenke F,Agnes EJ,Gerstner W.在尖峰神经网络中协调形成和检索记忆的各种突触可塑性机制。纳特公社。2015;6(1):1–13.pmid:25897632
查看文章PubMed/NCBI谷歌学术搜索
9.Ravid Tannenbaum N, Burak Y. 通过高阶突触相互作用塑造神经回路。公共科学图书馆计算生物学. 2016;12(8):e1005056.pmid:27517461
查看文章PubMed/NCBI谷歌学术搜索
10.Ocker GK,Doiron B.通过尖峰计时可塑性训练和自发强化神经元组装。大脑皮层。2019;29(3):937–951.密码:29415191
查看文章PubMed/NCBI谷歌学术搜索
11.Herpich J,Tetzlaff C.记忆的输入依赖形成和组织的基础原理。网络神经科学。2019;3(2):606–634.pmid:31157312
查看文章PubMed/NCBI谷歌学术搜索
12.Montangie L, Miehl C, Gjorgjieva J. 通过尖峰三重态相互作用自主出现连接组件。公共科学图书馆计算生物学. 2020;16(5):e1007835.密码:32384081
查看文章PubMed/NCBI谷歌学术搜索
13.马崔普利特,阿维坦L,古德希尔GJ。在没有传入输入的情况下开发神经网络时出现自发组装活动。公共科学图书馆计算生物学. 2018;14(9):e1006421.pmid:30265665
查看文章PubMed/NCBI谷歌学术搜索
14.黄彦奕, 科利诺, 塞利格, 马伦卡.先前突触活动对诱导长期增强的影响。科学。1992;255(5045):730–733.密码:1346729
查看文章PubMed/NCBI谷歌学术搜索
15.Turrigiano GG,Leslie KR,Desai NS,Rutherford LC,Nelson SB.新皮质神经元中量子振幅的活动依赖性缩放。自然界。1998;391(6670):892–896.密码:9495341
查看文章PubMed/NCBI谷歌学术搜索
16.伊巴塔 K, 孙 Q, 图里贾诺 GG.由突触后放电变化引起的快速突触缩放。神经元。2008;57(6):819–826.密码:18367083
查看文章PubMed/NCBI谷歌学术搜索
17.曾克 F, 郭士纳 W, 甘古利 S.赫比学习和稳态可塑性的时间悖论。Curr Opin Neurobiol.2017;43:166–176.密码:28431369
查看文章PubMed/NCBI谷歌学术搜索
18.Zenke F, Gerstner W. Hebbian可塑性需要多个时间尺度上的补偿过程。Philos Trans R Soc Lond B Biol Sci. 2017;372(1715):20160259.密码:28093557
查看文章PubMed/NCBI谷歌学术搜索
19.Tetzlaff C, Kolodziejski C, Timme M, W?rg?tter F. 突触缩放与许多通用塑性机制相结合,可稳定电路连接。前计算机神经科学。2011;5:47.密码:22203799
查看文章PubMed/NCBI谷歌学术搜索
20.Lagzi F,Bustos MC,Oswald AM,Doiron B.组装形成由细小白蛋白神经元稳定并由生长抑素神经元加速。生物Rxiv。2021;.
查看文章谷歌学术搜索
21.De Falco E,Ison MJ,Fried I,Q Quiroga R.人脑中记忆网络背后的个人和普遍关联的长期编码。纳特公社。2016;7(1):1–11.密码:27845773
查看文章PubMed/NCBI谷歌学术搜索
22.Rey HG, De Falco E, Ison MJ, Valentin A, Alarcon G, Selway R, et al.通过人类内侧颞叶中的神经单元化编码长期关联。纳特公社。2018;9(1):1–13.密码:30348996
查看文章PubMed/NCBI谷歌学术搜索
23.Rey HG, Gori B, Chaure FJ, Collavini S, Blenkmann AO, Seoane P, et al.人类海马形成中身份的单个神经元编码。当代生物学杂志, 2020;30(6):1152–1159.密码:32142694
查看文章PubMed/NCBI谷歌学术搜索
24.Fauth MJ,van Rossum MC.自组织重新激活维持和加强记忆,尽管突触周转。生活。2019;8.密码:31074745
查看文章PubMed/NCBI谷歌学术搜索
25.DeNardo LA, Liu CD, Allen WE, Adams EL, Friedmann D, Fu L, et al.促进远程记忆检索的皮质系综的时间演变。纳特神经科学。2019;22(3):460–469.密码:30692687
查看文章PubMed/NCBI谷歌学术搜索
26.Feldman ML,Dowd C.老化大脑皮层中树突棘的丧失。阿纳特·胚胎(贝尔)。1975;148(3):279–301.密码:1221885
查看文章PubMed/NCBI谷歌学术搜索
27.Masliah E,Mallory M,Hansen L,DeTeresa R,Terry R.正常衰老期间人类新皮层的定量突触改变。神经学。1993;43(1 Part 1):192–192.密码:8423884
查看文章PubMed/NCBI谷歌学术搜索
28.Van Vreeswijk C,Sompolinsky H.具有平衡兴奋性和抑制活性的神经元网络中的混沌。科学。1996;274(5293):1724–1726.pmid:8939866
查看文章PubMed/NCBI谷歌学术搜索
29.肯普特 R, 郭士纳 W, 范海门 JL.赫比学习和尖峰神经元。物理学修订版 E. 1999;59(4):4498.
查看文章谷歌学术搜索
30.珀尼斯五世,斯陶德B,卡尔达诺比勒S,罗特·结构如何决定神经元网络中的相关性。公共科学图书馆计算生物学. 2011;7(5):e1002059.密码:21625580
查看文章PubMed/NCBI谷歌学术搜索
31.Kalle Kossio YF, Goedeke S, van den Akker B, Ibarz B, Memmesheimer RM. Growing Critical: Developmental Neural System 中的自组织临界性。Phys Rev Lett. 2018;121:058301.
查看文章谷歌学术搜索
32.Gerstein GL,Mandelbrot B.单个神经元尖峰活动的随机游走模型。生物物理学杂志 1964;4(1):41–68.pmid:14104072
查看文章PubMed/NCBI谷歌学术搜索
33.Shadlen MN, Newsome WT. 噪音、神经代码和皮质组织。Curr Opin Neurobiol.1994;4(4):569–579.密码:7812147
查看文章PubMed/NCBI谷歌学术搜索
34.Jahnke S, Memmesheimer RM, Timme M. 复杂神经网络中的稳定不规则动力学。物理学修订版 2008;100(4):048102.pmid:18352336
查看文章PubMed/NCBI谷歌学术搜索
35.Denève S, Machens CK. 高效的代码和平衡的网络。纳特神经科学。2016;19:375–382.密码:26906504
查看文章PubMed/NCBI谷歌学术搜索
36.Manz P, Goedeke S, Memmesheimer RM. 混合网络中的动力学和计算包含加速向尖峰加速的神经元。物理学修订版 E. 2019;100(4):042404.pmid:31770941
查看文章PubMed/NCBI谷歌学术搜索
37.霍克斯公司。一些自激和相互激励的点过程的光谱。生物梅特里卡。1971;58(1):83–90.
查看文章谷歌学术搜索
38.霍克斯公司。一些相互激励的点过程的点谱。J R Stat Soc Series B Stat Methodol.1971;33(3):438–443.
查看文章谷歌学术搜索
39.Mishra RK, Kim S, Guzman SJ, Jonas P. CA3–CA3突触的对称尖峰时序依赖性可塑性优化了自动关联网络中的存储和召回。纳特公社。2016;7(1):1–11.pmid:27174042
查看文章PubMed/NCBI谷歌学术搜索
40.云 R, 米什勒 JH, 珀尔马特 SI, 菲茨 EE.用灵长类动物运动皮层中的单个神经元反应量化的峰值时间依赖性可塑性的配对刺激。生物Rxiv。2022;.
查看文章谷歌学术搜索
41.达扬 P, 雅培 LF.理论神经科学:神经系统的计算和数学建模。麻省理工学院出版社;2005.
42.哈里斯·特等。分支过程理论。第6卷。施普林格柏林;1963.
43.Begg JM,Plenz D.新皮层回路中的神经元雪崩。J 神经科学。2003;23(35):11167–11177.密码:14657176
查看文章PubMed/NCBI谷歌学术搜索
44.Ocker GK,Litwin-Kumar A,Doiron B.具有塑料突触的尖峰神经元网络中微电路的自组织。公共科学图书馆计算生物学。2015;11(8):e1004458.pmid:26291697
查看文章PubMed/NCBI谷歌学术搜索
45.加斯塔尔迪 C, 施瓦尔格 T, 德法尔科 E, 基罗加 RQ, 郭士纳 W.当共享概念单元格支持关联时:重叠记忆印迹理论。公共科学图书馆计算生物学. 2021;17(12):e1009691.pmid:34968383
查看文章PubMed/NCBI谷歌学术搜索
46.神经回路的尖峰时序依赖性可塑性。神经元。2004;44(1):23–30.密码:15450157
查看文章PubMed/NCBI谷歌学术搜索
47.Caporale N, Dan Y. Spike timeing–dependent plasticity: a Hebbian Learning rule.神经科学年鉴。2008;31:25–46.密码:18275283
查看文章PubMed/NCBI谷歌学术搜索
48.Ziv NE,Brenner N.突触韧性或缺乏突触韧性:突触的自发重塑。趋势神经科学。2018;41(2):89–99.密码:29275902
查看文章PubMed/NCBI谷歌学术搜索
49.肯普特 R, 郭士纳 W, v 海门 JL.通过基于峰值的Hebbian学习实现输出率的内在稳定性。神经计算。2001;13(12):2709–2741.密码:11705408
查看文章PubMed/NCBI谷歌学术搜索
50.布扎基 G, 米祖塞基 K.对数动态大脑:偏态分布如何影响网络操作。国家修订版神经科学。2014;15(4):264–278.pmid:24569488
查看文章PubMed/NCBI谷歌学术搜索
51.菲斯特太平绅士。尖峰时间依赖性可塑性模型中的尖峰三元组。神经科学杂志。2006;26(38):9673–9682.pmid:16988038
查看文章PubMed/NCBI谷歌学术搜索
52.英格尔伯特 Y, 阿尔贾德夫 J, 布鲁内尔 N, 德班内 D. 突触可塑性与生理钙水平有关。美国国家科学院院刊.2020;117(52):33639–33648.密码:33328274
查看文章PubMed/NCBI谷歌学术搜索
53.Spaniol J,Grady C.衰老和源记忆的神经相关性:过度招募和功能重组。神经生物学衰老。2012;33(2):425–e3.pmid:21111514
查看文章PubMed/NCBI谷歌学术搜索
54.福尔维尔 A, 西蒙斯 JS, 达格博 A, 巴斯廷 C.我记得就像昨天一样:记忆的主观体验中与年龄相关的差异。心理公牛修订版 2021。密码:34918271
查看文章PubMed/NCBI谷歌学术搜索
55.Levine B,Svoboda E,Hay JF,Winocur G,Moscovitch M.衰老和自传记忆:将情节与语义检索分离。心理衰老。2002;17(4):677–689.密码:12507363
查看文章PubMed/NCBI谷歌学术搜索