免费医学论文发表-初级视觉皮层中小世界网络的皮质回路的物种特异性布线
抽象
长距离水平连接(LRCs)是哺乳动物初级视觉皮层(V1)中明显的解剖结构,但它们与视觉处理有关的详细功能尚未完全了解。在这里,我们表明LRC是组织针对每种尺寸的视觉皮层进行优化的“小世界网络”的关键组成部分,从而实现视觉信息的经济高效整合。利用生物启发模型神经网络的计算模拟,我们发现添加到网络中的稀疏LRC与密集的局部连接相结合,构成了一个小世界网络,并显着提高了图像分类性能。我们确认了在各种条件下,网络的性能似乎与模型网络的小世界系数密切相关。我们的理论模型表明,构建小世界网络的LRC数量取决于每个大小的皮层,并且LRCs仅在网络大小超过某个阈值时才有益。我们对各种大小的皮质的模型模拟验证了这一预测,并解释了动物数据中LRCs的物种特异性存在。我们的研究结果提供了对大脑平衡功能性能和资源成本的生物学策略的见解。
作者摘要
大脑使用比人工深度神经网络更浅的分层阶段来执行视觉对象识别。然而,这种成本效益功能背后的机制是难以捉摸的。在这里,我们表明皮质远程连接(LRC)可以实现这种简单的电路组织,以平衡成本和性能。使用基于树鼩数据的模型网络模拟,我们发现稀疏LRCs在添加到本地连接中时,会组织一个小世界网络,从而显着增强浅层前馈网络的对象识别。我们发现,LRC和本地连接之间比率的优化通过最小化集成全局信息所需的总布线长度,使网络的小世界系数和任务性能最大化。我们还发现LRCs的效果因网络大小而异,这解释了各种大小的哺乳动物视觉皮层中存在物种特异性LRC。我们的研究结果展示了一种实现具有成本效益的大脑回路的生物学策略。
数字
Fig 4Fig 5Fig 6Fig 1Fig 2Fig 3Fig 4Fig 5Fig 6Fig 1Fig 2Fig 3
引文: Baek S, Park Y, Paik S-B (2023) 初级视觉皮层中小世界网络的皮质回路的物种特异性布线。公共科学图书馆计算生物学19(8): e1011343. https://doi.org/10.1371/journal.pcbi.1011343
编辑 器: 蒂姆·克里斯蒂安·基茨曼,奥斯纳布吕克大学:德国奥斯纳布吕克大学
收到: 29月 2022, 10;接受: 七月 2023, 4;发表: 2023月 <>, <>
版权所有: ? 2023 白克等人。这是一篇根据知识共享署名许可条款分发的开放获取文章,该许可允许在任何媒体上不受限制地使用、分发和复制,前提是注明原作者和来源。
数据可用性: 用于产生手稿中呈现的结果和分析的所有相关数据和代码可从 https://github.com/vsnnlab/LRC_Smallworld 和 https://doi.org/10.5281/zenodo.7874690 获得。
资金: 这项工作得到了韩国政府(MSIT)资助的韩国国家研究基金会(NRF)资助(编号NRF-2022R1A2C3008991,NRF-2021M3E5D2A01019544,NRF-2019M3E5D2A01058328)和KAIST的奇点教授研究项目(对SP)的支持。资助者在研究设计、数据收集和分析、发表决定或手稿准备方面没有任何作用。
竞争利益: 提交人声明不存在相互竞争的利益。
介绍
长距离水平连接(LRC,图1A)是在各种哺乳动物的初级视觉皮层(V1)中观察到的特征解剖结构,例如猴子[1,2],猫[3,4],树鼩[5,6],灰松鼠[7],雪貂[8]和大鼠[9,10].鉴于LRC的布线非常长(最长2-3mm),因此与短横向扩展(最大1mm)的局部连接区分开来[11-15]。鉴于大脑已经进化到通过平衡布线成本和功能效率来发展其结构[16-20],除非它们在信息处理中发挥关键作用,否则发展这种结构成本高的连接可能是不利的[21-23]。先前的研究表明LRC可能发挥抵消其高布线成本的作用,例如放大弱前馈输入,增强物体轮廓检测或早期上下文调制[24-26],但LRC在视觉信息处理中的确切功能仍然难以捉摸。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图1. V1中长距离水平连通性的物种特异性存在。
在树鼩的初级视觉皮层(V1)中观察到的长距离水平连接的图示(Bosking 1997之后)。红点代表通过注射逆行标记的横向连接的突触波。(B). 各种物种中横向连接长度分布图示(遵循 Seeman 2018 和 Bosking 1997)。LRCs在V1面积较小的物种中没有发现,例如小鼠。(C). 具有不同放大倍数的物种的视网膜皮质投影图示。根据皮层的大小,视觉空间中的同一物体可以覆盖皮质空间中不同大小的空间区域。LRC可以作为大型V1网络中神经间通信的快捷方式,但在小型网络中则不能,因为本地连接就足够了。
https://doi.org/10.1371/journal.pcbi.1011343.g001
值得注意的是,LRCs在V1面积较小的物种中没有发现,例如小鼠(图1B)。小鼠和大鼠是遗传近亲,V1中功能回路具有神经解剖学相似性[27-29]。然而,大鼠[9]的LRC与其局部横向扩散明显不同,而小鼠[30]则没有。无论是在绝对尺度上(图1B)还是在每个物种中标准化为V1大小的尺度上(S1图),在许多物种中始终观察到长度超过V10长度1%的LRC,而在小鼠中不存在。不同物种之间的这种差异可能为LRC的发展有利于信息处理的条件提供线索,抵消其高昂的布线成本。
一个重要的线索可能是有和没有LRC的物种之间放大系数的差异。对于覆盖相同大小的视觉空间的输入,与该输入相匹配的皮质空间的大小因物种而异(图1C)。例如,这表明与小鼠相比,树鼩在皮质空间中视觉空间中的相同距离大约是小鼠的十倍(放大系数;小鼠:~50度/毫米,大鼠:~20度/毫米,树鼩:4~4.5度/毫米)。然后,在大型V1网络中(图1D,大皮层),短的局部连接不足以整合远处的视觉特征,LRC可以作为皮层神经间通信的捷径。这与小V1(图1D,小皮层)的状况相反,其中本地连接足以整合V1中的任何任意位置。考虑到自然图像的视觉信息包含广泛的空间频率成分[31],远距离或低空频特征的整合可能是LRCs的重要作用之一,特别是在大规模网络中。
在这种情况下,出现了重要的问题——这个模型是否解释了LRCs的物种特异性存在?LRC在补偿其高布线成本的同时变得有利的网络规模的门槛是多少?什么决定了LRC和本地连接之间的适当比例?为了回答这些有趣的问题,我们在这里介绍一个观点,即V1电路的生物结构在其布线轮廓方面可以描述为“小世界网络” [32-34]。“小世界”可以定义为一个网络,它最小化了远节点之间的平均“全局”距离,同时最大化相邻节点之间的“局部”交互,链接数量有限。根据该理论,存在一个最佳条件,其中两个相互矛盾的目标,即最小布线成本和最大性能,可以相互抵消。从数学上讲,这可以通过密集的局部集群来实现,这些集群具有足够大的网络的稀疏、长的快捷方式,或者当网络足够小时,可以仅通过局部布线来实现。从这个类比中,我们假设本地连接和LRC发展为组织一个针对每个网络规模优化的“小世界网络”。我们假设每个网络的小世界系数预测了在宽空间频谱(从局部到全球尺度)上编码视觉信息的能力,以根据网络规模找到神经回路的最佳布线结构。
为了验证这一理论思想,我们实现了视网膜-皮层通路的模型网络,并在网络执行图像分类任务时模拟了各种电路布线条件。首先,在大型网络中,我们发现网络的聚类系数(C)与其编码视觉刺激的“局部”信息的能力密切相关,而平均路径长度(L)与网络识别远处“全球”特征的能力相关。总体而言,由高C和低L最大化的小世界系数似乎与网络在将包含本地和全局信息的图像分类为自然图像方面的性能密切相关。
此外,我们测试了通过平衡网络性能和布线成本,是否可以从随机网络实现LRC的组织以及优化为小世界的本地连接。我们训练了一个随机初始化的网络,其成本函数包含性能和布线成本项。我们发现,尽管布线成本受到损失,但训练后仍有大量LRC存活下来,使得LRC数量与本地连接之间的比率收敛到一个恒定值。
值得注意的是,对于小型网络,我们无法观察到LRC的这种影响 - 将LRC添加到本地连接不会提高网络的分类性能,因为网络电路的小世界系数不受影响,正如我们的模型所预测的那样。该结果证明了LRCs对小世界系数组织的网络大小依赖性贡献,并根据每个物种的皮层大小解释了LRCs在哺乳动物大脑中的物种特异性存在。综上所述,我们的研究结果提供了一个理论框架,通过该框架来理解大脑中皮层回路最佳结构的出现和发展。
结果
用于集成远距离视觉信息的远程连接
为了研究长距离连接(LRC)对V1中视觉信息整合的贡献,我们设计了一个三层收敛神经网络作为早期视网膜-皮层视觉通路的简化模型(图2A和2B)。模型网络由执行简单图像分类任务的输入层(视网膜)、隐藏处理层(V1)和读出层(更高视觉区域)组成[35]。层中的模型神经元通过三种不同类型的前馈(层间)投影和横向(层内)布线相互连接 - (i)从输入到隐藏层的层间前馈连接(W康)由先前在早期视觉通路中观察到的局部收敛投影组成[36]。(二) 从隐藏层到读出层的前馈投影(W反渗透)也具有局部收敛结构,因为观察到视网膜在大脑中维持到更高的视觉区域[37]。与行为实验中常用的视点固定类似[38,39],读出神经元的选择使得它们的感受野位于视觉空间的注视中心,并且向读出层的投影覆盖整个输入视野。(三) 层内横向连接(W拉特),模拟的主要控制参数,建模为从观察到的树鼩的布线分布中采样长度[5](S1图,有关详细信息,请参阅材料和方法)。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图2. LRC将全球信息整合到一个大型网络中。
(A).设计一种视觉刺激,其中包含点位置形式的“全局”信息。早期视觉通路的简化三层网络模型。模拟中使用的模型网络的两种不同大小。LRC比率,即LRC的数量相对于连接总数,从0%到100%不等,而连接总数保持不变。模拟中的连接长度是从生物数据中观察到的统计数据中采样的[5]。(E)-(F)。大型和小型网络中LRC比率变化下“位置”数据集的分类精度。细线表示刺激中中心点距离不同条件下的结果(详见S2A图)。粗线表示所有刺激条件下的平均表现。(G)-(H)。从处理层到大型和小型网络中单个读出单元的连接投影可视化。每个像素的灰度表示链接到读出神经元的连接数,总灰度区域表示读出的有效“识别”范围。(一)-(J)。网络平均路径长度 L 的图示。请注意,广泛的有效横向连接,导致小L,对于识别视觉刺激中的全局位置信息是必要的。(K). 改变LRC比率时,1/L值的调制与重新布线过程中网络的分类精度之间的相似性。无论网络规模和/或刺激条件如何,1/L与网络的分类精度之间都存在很强的相关性。对于 x 轴上每个 1/L 的值,透明点表示刺激中中心点距离不同条件下的结果,粗体点表示所有刺激条件下的平均值。误差线表示 20 次试验的置信区间。
https://doi.org/10.1371/journal.pcbi.1011343.g002
首先,为了研究LRCs是否增强了全球信息的整合,即视觉图像中包含的长距离相关性,我们设计了一个刺激数据集(32×32像素),其中只有物体的位置变化(图2A)。具体来说,“位置”数据集由图像组成,其中的点位于其中一个象限中,标签与每个位置(NE、NW、SE、SW)匹配。然后,用10,000张图像训练网络,根据点位置对数据集进行分类,并使用2,000张新图像作为测试数据集(图2B)。使用两种不同的尺寸,表示模型网络的隐藏层面积(图2C,大型网络:32×32个单位,小型网络:17×17个单位),我们检查了分类性能的变化,同时改变了横向连接常数总数中LRC的比率(图2D)。在大型网络中,我们发现分类性能随着LRC比率的增加而增加(图2E,n = 20个随机初始化网络,单侧秩和检验,*p < 1.35×10?3).另一方面,在小型网络中,添加LRC的性能变化并不显着(图2F,n = 20,单侧秩和检验,n.s.,p = 0.56)。这是因为视觉空间中的物体根据网络的大小在皮层空间中被映射为不同的大小。在小型网络中,由于皮质放大系数相对较小,本地连接足以整合远处的视觉特征。另一方面,同一对象不能仅与大型网络中的本地连接集成,除非添加LRC并因此也做出贡献。为了可视化这一点,我们通过可视化处理层和每个读出神经元之间连接权重的空间分布来检查从处理层到读出神经元的连接投影(图2G和2H)。我们发现纯局部连接不足以使中心的读出整合外围视觉空间中物体位置的信息(图2G,LRC 0%)。然而,添加一小部分(~30%)LRC可以显着扩大读出神经元的空间范围,从而可以成功识别点刺激的位置(图2G,LRC 30%)。相比之下,在小型网络中添加LRC并没有引起如此巨大的变化,因为纯本地连接已经足以对整个视觉空间进行编码(图2H)。我们确认了这种趋势在中心点距离的变化下是一致的(S2A和S2B图)。
这一结果表明,当纯局部连接不能完全整合视觉组件的长距离空间相关性时,LRCs可以有助于视觉图像中包含的远程特征的编码,特别是与大皮层。在这种情况下,LRC可以作为电路中的捷径(图2I和2J),这种类型的电路调制可以通过层中两个随机神经元之间的平均路径长度(L)[34]来量化。具体来说,我们假设添加LRC可以减少平均路径长度L,并且减少的L可以增强网络编码远程位置信息的能力。为了验证这一假设,我们在改变LRCs比率的同时测量了网络的平均路径长度,然后将其与在每个网络条件下观察到的分类性能进行了比较(图2K)。我们发现网络性能与路径长度(1/L)的倒数之间存在很强的相关性,无论刺激图像(中心点距离变化)或网络(层大小变化)的条件如何(图2L,n = 20,皮尔逊相关系数,总体,r = 0.96,p < 6.82×10?5;大型网络,r = 0.99,p < 3.64×10?6;小型网络,r = 0.58,p < 7.73×10?3).这一结果表明,平均路径长度可以作为网络整合视觉刺激中包含的这种长距离空间相关性或“全球”信息的能力的指标。
用于编码视觉刺激的各种频谱的网络电路
在自然情况下,视觉输入通常包含广泛的频率分量[31]。为了研究网络电路的组织与视觉频谱编码之间的关系,我们通过修改MNIST图像(图3A)准备了一个新的数据集,每个图像都包含空间相关性的不同组成部分(“形状”,“位置”和“两者”)——“形状”刺激的分类需要对局部轮廓进行编码,例如数字的形状, 而“位置”刺激需要区分全局特征,例如两个远距离刺激之间的位置关系。“两者”刺激包含局部和全局信息,因此在这些情况下进行分类需要编码类似于自然图像的宽视觉光谱。使用这些数据集,我们训练了网络并检查了分类性能,同时通过改变LRC的比率来调制网络电路。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图3. 需要本地连接才能将本地信息集成到大型网络中。
(A).设计包含“局部”或“形状”信息的视觉刺激,MNIST数字位于中心。“形状”数据集的分类精度,LRC比率和网络规模的变化。对于大型和小型网络,性能随着LRC比率的增加而下降。细线表示激励参数变化下的单个网络性能结果,粗线表示平均性能(详见S2C图)。(C). 网络的聚类系数 C 图示。请注意,高连接密度(导致高 C)对于识别数字的详细形状是必要的。(D).改变LRC比率时,重新布线过程中C值的调制与网络的分类精度的调制相似性。无论网络规模和/或刺激条件如何,C与网络的分类精度之间都存在很强的相关性。对于 x 轴上 C 的每个值,透明点表示刺激中不同数字组合的结果,粗体点表示所有刺激条件下的平均值。误差线表示 20 次试验的置信区间。
https://doi.org/10.1371/journal.pcbi.1011343.g003
在使用“shape”数据集的分类任务中,我们发现在大型和小型网络条件下,性能随着LRC比率的增加而下降(图3B,顶部以及S2C和S2D图)。当网络由100%本地连接组成时,每个读出神经元的感受野(即连接到读出单元的处理层单元的空间分布)与形状刺激的中心区域相当重叠(图3B,底部),导致刺激数字的成功分类。另一方面,随着网络中LRCs比例的增加,局部中心区域的连接密度降低,而对读出神经元的投影范围扩大到外围区域,导致分类性能下降。通过这一观察,我们假设聚类系数(C)[34](表示网络连接中局部聚类的程度)可以预测形状刺激的性能(图3C)。我们在改变LRC比率(图3D)的同时测量了每个网络的聚类系数,并将这些结果与“形状”数据集的分类性能进行了比较。正如预期的那样,发现聚类系数C与“形状”数据集的性能之间存在很强的相关性(图3E,n = 20,皮尔逊相关系数,总体,r = 0.89,p < 2.57×10?3;大型网络,r = 0.90,p < 5.32×10?3;小型网络,r = 0.89,p < 4.57×10?3),而不考虑网络大小。
最后,我们使用同时包含局部和全局特征组件的“两者”数据集研究了网络的电路结构相关性能,类似于自然图像(图4A)。与前两个条件不同,性能曲线在两种规模的网络中表现出显着不同的特征。大型网络在稀疏(10%)LRC和密集本地连接的组合下表现最佳,而小型网络仅通过本地连接电路即可实现最大性能精度(图4B)。这些趋势与刺激参数的变化一致(S3图)。值得注意的是,电路结构变化时性能曲线的这些变化与网络电路的小世界网络架构[32-34]中的变化相对应。考虑到小世界网络由高局部聚类和较短的平均全局路径长度组成,这是一个理论上可以理解的结果[34]。当网络足够大时,可以从密集的局部集群以及稀疏的长快捷方式来实现此条件,而等效条件只能通过小型网络中的局部连接来实现(图4C),特别是因为平均路径长度不会随着在小型网络中添加远程快捷方式而显着变化。我们测量了小世界系数(SW)与每种规模下网络的分类性能之间的相关性(图4D)。在网络参数(例如,横向连接的层大小和长度分布)和刺激特征(例如,中心数字的选择以及中心数字与点之间的距离)的各种条件下,我们发现小世界系数与“两者”数据集的网络性能显着相关(图4E, n = 20, 皮尔逊相关系数, 总体, r = 0.63, p < 5.52×10?6;大型网络, 大型网络, r = 0.53, p < 4.43×10?5;小型网络,r = 0.89,p < 5.73×10?8).这表明稀疏的LRC和密集的局部横向连接的组合构成了一个小世界网络,能够对与自然图像相匹配的宽视觉频谱的刺激进行一致的视觉编码。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图4. LRC组织了一个小世界网络,以便能够识别各种视觉特征。
(A).设计包含“全局”和“局部”信息的视觉刺激,中间有一个MNIST数字,其中一个象限中有一个点。(B).随着LRC比率的变化而变化的分类准确性。大型网络(左)在稀疏 (10%) LRC 和密集本地连接的组合中表现出最佳性能,而小型网络(右)仅使用本地连接实现了最佳结果。箭头表示最佳性能的条件。细线表示激励参数变化下的单个网络性能,粗线表示平均性能(详见S3图)。大型和小型网络中LRC比率变化过程中L和C调制的异同.请注意,L在大型网络中由于LRC比率的调制而显着变化,但在小型网络中则没有,而C在小型和大型网络中的变化相似。(D).改变LRC比率时,小世界系数(SW)调制与网络在重新布线过程中分类精度的相似性。无论网络规模和/或刺激条件如何,SW与网络的分类精度之间都存在很强的相关性。对于 x 轴上的每个 SW 值,透明点表示刺激中不同数字和点位置组合的结果,粗体点表示所有刺激条件下的平均结果。误差线表示 20 次试验的置信区间。
https://doi.org/10.1371/journal.pcbi.1011343.g004
网络的小世界系数预测了LRC对视觉编码的大小依赖性效应
我们进一步研究了LRCs对网络小世界系数的层大小依赖性贡献,以及这是否可以解释不同物种中LRCs的存在(图5A)。假设视网膜-皮质通路中的早期视觉编码过程,特别是刺激信息空间相关性的整合,可以用我们简化的三层模型来描述,我们假设LRCs的存在可能取决于每种皮层条件下LRCs是否可以增强神经回路的小世界系数;如果网络的大小很小,如在小鼠中,引入LRCs不会改变小世界系数或刺激分类性能(图5A,ΔSW = 0)。相反,当网络规模变大时,LRC的加入引入了神经元间的捷径,使远处神经元能够进行通信,最终增加了网络的小世界系数和性能(图5A,ΔSW>0)。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图5. 网络的小世界系数预测了LRC对视觉编码的大小依赖性效应。
(A). LRCs与网络大小相关的假设场景。LRCs的物种特异性出现可以通过LRCs对小世界系数(ΔSW)的大小依赖性增强来解释。为了验证该假设,在网络规模和LRC比率变化的情况下,检查了小世界系数(SW)和网络性能。(C).不同规模网络时,网络SW随LRC比率的变化。箭头表示最大值点,虚线表示 LRC 为 0% 的 SW 值。 ΔSW 定义为两个值之间的差值,如图所示。(D). 不同大小网络下归一化分类精度(ΔAccu)作为LRC比率函数的调制。ΔAccu 定义为最大性能与 0% LRC 的性能之间的差异。ΔSW 和 ΔAccu 随网络大小的变化。请注意,仅当网络大小超过特定阈值时,ΔSW 和 ΔAccu 才会变为正值。细线表示在刺激的局部和全局参数变化下的表现(详见S3图)。粗线表示刺激变化期间的平均表现。误差线表示 20 次试验的置信区间。
https://doi.org/10.1371/journal.pcbi.1011343.g005
为了验证这一假设,我们对各种规模的网络进行了连通性分析,并对“两者”数据集进行了图像分类测试(图5B)。我们测量了网络小世界系数(ΔSW)和性能(ΔAccu)的变化作为初始值和最大值之间的差异,并研究了这些值与网络大小之间的对应关系。正如预测的那样,当模型网络规模较大时,LRC的引入提高了分类精度和小世界系数(图5C和5D,32×32)。相反,当网络大小小于17×17时,无论添加的LRC量如何,性能和小世界系数都不会进一步增加(图5C和5D,13×13)。重要的是,只有当网络规模超过一定阈值时,LRC的性能(ΔAccu)和小世界系数(ΔSW)的增强是正的(图5E,ΔSW>0,n = 20,单侧秩和检验,p < 0.05;图5F,ΔAccu > 0,n = 20,单侧秩和检验,p < 0.05)。这一结果表明了LRCs对小世界系数调制的网络大小依赖性贡献,这为LRCs在各种大小的哺乳动物大脑中的物种特异性存在提供了可能的解释。
有条件地开发LRC,以平衡性能和布线成本
到目前为止,我们已经表明,添加到大型网络中的LRC可以通过修改电路结构来组织小世界网络,从而增强网络整合视觉信息的能力。在这一点上,我们从相反的方向再次确认了我们的发现:LRC能否通过在每种网络规模的性能和布线成本之间取得平衡,从随机初始布线自发发展而来?(图6A)。为了回答这个问题,我们设计了一个新的损失函数[35],它由两个独立的分量组成——分类误差(E错误)和长度惩罚(E长度) 条款。分类误差项应强制网络提高其分类性能精度,而长度惩罚项应最小化网络中的总布线长度。使用这个新的损失函数和“两者”刺激数据集,我们训练了随机初始化的网络,在每个训练时期修剪的连接弱化到设定的阈值(|w|<0.05)以下。最后,比较了小型和大型网络中的保留连接。为了公平比较,从大型网络中抽取了中心区域与小型网络大小相同的连接(图6A,虚线正方形)。
thumbnail 下载:
.PPT幻灯片
.PNG大图
.TIFF原始图像
图6. LRC的出现,用于性能和布线成本的尺寸相关优化。
从随机的初始布线条件中训练和修剪两种不同大小的网络,以找到以最小的布线成本最大化分类性能的最佳条件。(B).两个网络中的分类精度提高,总布线长度减少,正如由分类误差和长度惩罚项组成的新损失函数所预期的那样。训练后大型网络中横向连接长度的分布,有(红色)和没有(黑色)长度惩罚。(D).一部分LRC在训练后幸存下来,即使有长度惩罚。请注意,LRC 比率最初会迅速减小,但随后逐渐收敛到恒定值。幸存连接的最大长度也收敛到LRC阈值(10个单位)以上的某个值。训练后在小型网络中横向连接长度的分布,有(蓝色)和没有(黑色)长度惩罚。(G)-(H)。LRC在小型网络中训练后几乎无法生存。训练后的LRC比率和最大连接长度明显低于大型网络(插图)。误差线表示 20 次试验的标准偏差。
https://doi.org/10.1371/journal.pcbi.1011343.g006
在改变两个损失项之间的相对权重(S4 图)时,我们发现了一个相当大的参数机制,在该参数机制中,可以训练网络以提高分类性能,同时总连接长度同时减少。我们观察到,即使增加了长度惩罚项,大型和小型网络的最终分类准确性也没有显着下降(图6B,大型网络,n = 20,双侧秩和检验,n.s.,p = 0.46,*p < 6.81×10?8;小型网络, n = 20, 双侧秩和检验, n.s., p = 0.12, *p < 6.80×10?8).有趣的是,尽管长度惩罚施加了强大的压力,但训练结束时仍有一部分很长的连接幸存下来(图6C)。我们观察到LRC的比率在训练的早期阶段急剧下降,但逐渐接近一个恒定的非零值,而不是收敛到零(图6D)。所有幸存连接中的最大长度也收敛到LRC阈值以上的某个值(图6E),与没有长度惩罚时相比仅减少了10%。在使用“形状”和“位置”数据集(S5 Fig)的其他模拟中,我们发现只有当输入数据包含“全局”信息时,一部分LRC才会存活下来(仅适用于“位置”和“两者”数据集,而不是“形状”数据集)。这些结果表明,大型网络中的LRC可能是结构优化的结果,以经济高效地处理具有全局信息的输入。
然而,这种LRC并不是在一个小型网络中出现的。我们发现,在小型和大型网络中,为优化性能而训练后的连通性分布看起来不同。虽然大型网络模型的长度分布显示了幸存的LRC的很大一部分(图6C),但小型网络模型几乎没有LRC(图6F和6G)。训练后,小网络中LRC的比率明显低于大型网络中的LRC(图6G,插图,n = 20,双边秩和检验,*p < 6.80×10?8).我们还确认,在训练期间,小型网络中的最大连接长度下降到明显低于大型网络中的值(图6H,插图,n = 20,双侧秩和检验,*p < 5.39×10?8).此外,当网络大小从17x17到32x32连续变化时,我们发现LRC和最大连接长度的比率随着网络规模的增加而增加(S6图)。在网络结构参数的变化过程中,始终观察到这种趋势(S6图)。然后,在仔细检查LRC的出现是否由神经元数量,网络大小或两者决定时,我们进行了额外的测试,其中我们独立地改变了神经元的数量和网络大小(S7图)。我们确认,训练网络中的LRC比率没有随着神经元数量的变化而显着变化(S7D 图,n = 20,双侧秩和检验,n.s. p > 0.11)。相比之下,训练网络中的LRC比率随着网络大小的增加而增加(S7图,E,n = 20,双侧秩和检验,*p < 0.001)。这一结果表明,LRCs的出现主要取决于网络大小,几乎不受神经元数量的影响。
总体而言,这些结果提出了一种可能的机制来解释为什么LRC存在 - 特别是根据其皮层大小 - 由具有密集本地连接的稀疏LRC连接的大型皮层网络可能是平衡性能和布线成本的最佳形式,而LRC不能有助于提高性能足以补偿其在小型网络中的布线成本。
讨论
在目前的研究中,我们发现皮质LRC可以在组织针对每种尺寸的视觉皮层优化的小世界网络方面发挥重要作用,并且这使得视觉刺激的识别具有成本效益。我们的模型仿真表明,稀疏LRC和密集局部连接的组合构成了大型网络中的小世界网络,从而相应地提高了图像分类性能。LRCs的网络大小依赖效应可以通过计算预测,因为网络的性能与网络的小世界系数密切相关。该模型分析解释了动物数据中LRCs的物种特异性存在,因为LRCs对增强视觉信息整合的贡献仅在网络规模超过某个阈值时才发生。
识别自然场景和物体的能力对于动物的生存至关重要。自然图像包含很大一部分低频分量[31],因此任何视觉电路都应该能够整合这种“全局”信息[40]。这需要具有大量连接的足够深的层次结构,除非每个前馈投影的收敛范围非常大[41],与全连接网络相当。先前在大脑中的观察表明,这种情况在实验中没有发现。而且,由于物理空间的体积有限,大脑中的代谢资源有限,视觉通路无法发展出与传统人工智能模型相媲美的如此深层结构。这些限制使得仅将自然视觉输入的全球信息与紧密定位的前馈收敛投影相结合变得困难。从理论上讲,在层之间实现广泛的收敛也可能不是一个合适的解决方案,因为这样做可能会导致高频“局部”信息的大量损失,因为感受野的大小很大。我们在当前研究中的理论分析表明,在浅层前馈网络层中,密集的局部连接和稀疏的LRC的组合可能使大脑能够通过以最小的布线成本捕获本地和全局信息来解决这个问题。
在当前的模型模拟中,我们使用了具有收敛前馈投影的网络,而不是通常用于专注于视觉功能的深度学习模型研究的卷积神经网络(CNN)[42,43]。收敛网络模型更适合研究生物大脑的机制,因为它由更合理的结构组成,例如局部前馈投影和每个神经元的隔离感受野,因为观察到初级视觉皮层(V1)中的每个神经元都有一个感受野,该感受野通过局部视网膜 - 皮层传入投影与视觉空间中的局部区域相匹配[36].另一方面,CNN模型通常采用权重共享结构,其中每个神经元使用完全相同的过滤器对视觉空间的不同部分进行编码。这种类型的设计利用了整体计算水平的降低,但不允许我们研究网络利用的目标功能背后的生物学机制。目前的研究针对生物大脑的一个特定组成部分,即皮质回路中的长距离横向连接,因为在典型的CNN模型中没有等效物。因此,我们使用收敛前馈网络模型进行了模型仿真,这使我们能够控制和调制模型网络的关键组件,例如横向连接的统计数据。
与目前的研究类似,之前也有关于横向连接在视觉信息处理中的作用的模型研究[44-46]。在这些情况下,横向连接被实现为层内连接,允许同一隐藏层中的神经元之间进行通信,似乎增强了前馈网络的性能。然而,这些模型仅实现了有限空间范围的横向连接,与当前研究中的短局部连接相当。与这些方法不同,我们一直关注LRCs的可能作用[35],这些作用与短横向传播的局部连接区分开来。在之前的工作中,我们证明了稀疏LRC能够在分层深度的物理约束下实现经济高效的对象识别。随后,在目前的研究中,我们表明LRCs的这种效应是由于小世界网络理论所描述的电路结构的优化,并且该理论框架提供了对皮层回路的物种特异性组织的更好理解。
小世界网络是一种有趣的数学结构,在许多复杂系统的模型研究中得到了广泛的研究。例如,在机器学习研究中,有人认为小世界是一种高效的架构,可以用来执行视觉任务[47,48],与密集连接的网络相比,需要更少的训练参数,需要更少的时间来达到所需的精度水平。有趣的是,神经科学领域的研究表明,大脑的解剖结构和功能连接可以被描述为一个小世界网络[49-52]——对连接组数据的分析表明,在各种物种的全脑网络中通常观察到小世界配置。特别是对于大脑中具有成本效益的布线,小世界网络被认为可以最大限度地减少远处神经元通信所需的总布线成本,同时保持相邻神经元之间的局部相互作用。在目前的研究中,我们认为小世界结构的优势也在不同的尺度上观察到;与以前大多数考虑大脑区域之间网络布线的研究不同,我们的新结果表明,还应该研究单神经元布线水平的小世界网络,以阐明大脑如何在局部大脑区域(如初级视觉皮层)组织具有成本效益的功能回路。
在目前的研究中,为了模型的简单性,我们没有明确地实现生物大脑的高度详细的解剖结构。特别是,当前模型中没有实现递归,这在连续时间信息的整合过程中可能起着重要作用。以前的横向连接模型[44-46]考虑了连续输入刺激的时间延迟,通过该延迟反馈可能导致多个交互循环。目前,我们的模型只考虑来自静态图像的输入,因此只能有一个循环循环。在我们随后的研究中,连续视频刺激将引入多个循环循环,这可能使我们能够研究LRCs对全球信息持续整合的贡献。还必须注意的是,还有许多其他相关因素会影响我们的结果,例如细胞密度、收敛投影范围的方差、视网膜的非线性放大倍率因子以及循环和反馈电路。尽管所有这些因素都可能影响信息处理,因此可能需要在随后的研究中检查它们的详细影响,但我们的模型表明,通过考虑系统的一个关键特征,可以在理论上预测和理解网络结构的调制和这些因素的性能变化:这些因素如何调节电路的小世界结构。
关于LRCs在大脑发育过程中出现的基本问题仍然存在。据报道,LRCs在没有视觉体验或训练的情况下发展,因为它们是在睁开眼睛之前观察到的[53,54],这意味着LRC是从大脑的早期内部活动中自发出现的。关于这个问题,既往研究报道,来自外周的前馈传入可能在早期皮质回路的发育中发挥重要作用[55,56]。特别是,感觉皮质中的LRC可以通过早期视网膜活动的前馈投射诱导[57]。在我们小组早期的一项计算研究中,有人提出皮质LRC起源于睁开眼睛之前的早期外周活动[58];V1中的长程水平连接来自自发产生的时空结构视网膜波。对这种情况的后续研究以及对幼年动物中发育V1区域的分析可能为我们的模型提供进一步的支持。
总体而言,我们的结果表明,皮质长距离连接能够在生物约束下组织小世界网络,以实现具有成本效益的视觉识别。这一发现提供了一个简单但强大的模型,解释了皮质长程连接的作用以及物种特异性进化的生物学策略的潜在机制。
材料和方法
用于图像分类的神经网络模型
为了实现从视觉空间到 V1 的路径的简化模型,我们使用了由三层组成的多层感知器模型——输入层(32 × 32 单位(像素))、隐藏层(13 × 13 ~ 32 × 32 个单位)和一个读出层(13 × 13 ~ 32 × 32 个单位)——来执行分类任务。读出层中的神经元数量设置为与隐藏层中的神经元数量相同,以便它们的感受野覆盖整个输入视觉空间。我们选择了 32x32 和 17x17 的大小来表示大型和小型网络。选择这个大小是考虑到(i)网络之间的面积比需要大于我们想要测试的V1比值(2.33倍,大鼠与小鼠)有和没有LRC的物种,以及(ii)小网络中的单位数必须足以执行与大型网络中相当的视觉任务。当生成各种大小的网络时,网络中神经元的密度固定为 1(例如,大型网络:大小 = 神经元数量 = 32x32;小网络:大小 = 神经元数量 = 17x17)。这是基于生物学观察,即V1细胞密度在物种之间相当一致[28]。模型的原理图结构如图2A和2B所示。
为了使模型参数与生物数据中观察到的统计数据相匹配,我们假设在一种情况下,向头部固定的动物(如树鼩)显示15°的视觉图像[5,27,59]。考虑到各种哺乳动物(小鼠和树鼩)的放大倍数和V1大小的观测数据,将比例因子设置为0.1 mm/单位,使生物数据皮层空间中的0.1 mm与隐藏层中连接的一个单位距离相匹配。例如,文献中LRC的生物学定义是长度超过1毫米的横向连接[60],后来转换为连接长度超过<>个单位的模型LRC。
根据Hubel和Wiesel的工作,输入层和隐藏层之间的前馈连通性(FF)设置为局部收敛结构[36,61]。该 i千隐藏层中的神经元具有圆形感受野; 其中 j 是输入层中神经元的索引,D
ij是将输入层投影到隐藏层时神经元 i 和 j 之间的欧氏距离。这里,c表示感受野的大小,相当于最大距离dij,最初设置为四个单位。该项是一个布尔参数,表示神经元 i 和 j 之间存在连接。
设置隐藏层和读出层之间的连接,以确保在观察到视网膜在大脑中更高的视觉区域保持后进行局部收敛投影。在读出层中感受野包含视觉空间固定中心的神经元中,随机选择N(任务中的标签数量)读出神经元,并将其激活用于分类任务。我们使用仅覆盖视觉空间中心的读出神经元进行分析,以防止位于隐藏层边缘周围的神经元产生任何可能的边缘效应。
层内横向连接将隐藏层中的两个神经元连接起来。横向连接的长度分布遵循与树鼩 [1] V5 相关的数据拟合的指数函数,其中 d 是连接长度(转换为单位),Y 是连接概率。连接是随机生成的,概率为 0.5。一旦确定了横向连接的总数,权重矩阵W
拉特使用给定的长度分布生成。在这里,所有连接权重都使用平均值为 0、标准差为 0.05 的高斯分布进行初始化。整体网络计算如下:
在此等式中,X 是输入像素,H 表示隐藏层激活,Y 是输出层激活,W康和 W反渗透表示每层的FF连接矩阵,b康和 b反渗透分别是输入层和隐藏层的偏差,W拉特是横向连接矩阵。通过横向连接的反馈回路数量限制为一个,以研究LRC的直接影响。
为了进行图像分类,使用随机梯度下降作为学习规则的简化模型来训练模型。在学习过程中,W康, W反渗透和 W拉特在每一层都进行了训练。批量大小设置为 512 张图像,权重衰减因子设置为 0。学习率设置为常量值 0.1。在图像分类任务[62]期间选择其他超参数(例如epoch数)以提供合理的精度(训练epoch数= 500)。所有仿真均使用 MATLAB 深度学习工具箱进行。
图像数据集
训练模型以执行图像分类任务。为了研究LRC在图像分类中的频率特定作用,我们通过修改手写数字(MNIST)的大小和位置生成了三个数据集。详情如下:
“形状”数据集是通过将手写数字图像的大小调整为 5 × 5 像素中心的 32 × 32 像素来设计的。“本地”数据集由四个类别组成,具体取决于数字(从 0 到 9 选择四位数字)。所有数字组合均用于刺激变化。对于此数据集,分类只需要数字的本地信息(形状)。
“位置”数据集是使用以下过程创建的。首先,将 32 × 32 像素区域分为 16 个 16 × <> 个区域。其次,在其中一个象限中生成了一个高斯点。尺寸和与中心的距离是控制参数。该数据集还由四个类别组成,具体取决于点的位置。
“两者”数据集是通过简单地重叠“数字”数据集和“位置”数据集生成的。“两者”数据集由十六个类别组成,具体取决于数字的类型和位置。
对于“形状”数据集,数字的本地轮廓是用于分类的唯一信息。对于“位置”数据集,数字的形状无关紧要,只有点的位置作为分类信息。对于“两者”数据集,网络应该感知数字的形状和位置,以便正确分类图像。对于所有三个数据集,为训练数据集生成了 10,000 个图像,为测试数据集生成了 2,000 个新生成的图像。
网络重新布线过程
为了研究远程横向连接(≥10个单位)的确切作用,我们改变了横向连接中LRC的比例,并在训练修改后的MNIST数据集(形状,位置,两者)后测试了图像识别性能。为了公平比较具有不同结构的网络的性能,控制了连接总数,因为很明显,具有更多可学习参数的网络会表现得更好。为了在改变网络连接的同时保持可学习参数的数量相同,我们在隐藏层中消融了局部横向连接(< 10 个单位),同时添加了相同数量的 LRC。前馈连接未消融,因为这些连接被认为对分类至关重要。
网络连接指数
总体而言,本文中使用的网络参数遵循了早期的定义[33,34],只是进行了小幅修改。聚类系数 C 是相邻连接的平均密度,描述为 其中 N
隐藏是隐藏神经元的数量和 cj是 j 隐神经元的局部系数。在这里,cj由以下等式确定:其中 N
邻居,J是与J隐神经元连接的神经元数量,d二′是源 I 输入神经元和目标 I' 输入神经元之间的邻域距离,它们通过 j 隐藏神经元连接。同样,d杰·"是源 J′ 隐神经元和目标 J′ 隐神经元之间的邻间距离,它们与 j 隐神经元相连。
特征路径长度L定义如下。
在这里,N输入是输入神经元的数量和 l二′是 i 和 i′ 之间的最短路径。术语 l二′定义为从一个随机输入神经元 I 到另一个输入神经元 i′ 的最短路径。应该注意的是,必须包含至少一个隐藏神经元的最短路径,因为网络是分层结构。
小世界系数(SW)定义为聚类系数C与路径长度L的比值。但是,该指数受某些网络参数(例如单元数)的影响很大。为了避免这个问题,首先我们定义了“常规”和“随机”网络,其连接数与相应的网络相同。这些网络用于规范化过程,以公平比较具有不同连接总数的网络之间的软件。归一化小世界系数 [32] 定义如下: 其中 C
兰特和 L兰特是仅由随机生成的横向连接组成的随机网络上的聚类系数和特征路径长度。术语 C定期和 L定期对应于仅由局部横向连接组成的随机网络上的聚类系数和特征路径长度。
基于梯度的连接优化和修剪
我们研究了随机初始连接如何通过训练来演变,以最小化总连接长度,同时最大限度地提高图像分类性能。我们使用了基于梯度的优化方法,该方法惩罚了我们之前研究中使用的连接长度[35]。目标函数由分类误差最小化项和连接长度惩罚项组成,如下所示:
纬度是网络的权重矩阵,N是连接数,LenK,L表示连接长度矩阵,k 表示每层,B 表示误差最小化与长度损失之间的比率。选择B的值是为了使两个项的微小变化可以显着调节损失函数。采用随机梯度下降法进行优化。为了模拟训练期间不必要连接的自发修剪,我们在训练步骤后断开了权重值低于 0.05 的连接。
支持信息
V1中长距离水平连通性的物种特异性存在。
显示 1/7: pcbi.1011343.s001.tif
跳到无花果共享导航
https://ndownloader.figstatic.com/files/41867303/preview/41867303/preview.jpg
1 / 7
下载
无花果分享
S1 图 V1中长距离水平连通性的物种特异性存在。
横向连接的连接长度分布在按每个V1大小标准化的尺度上。请注意,即使在这个相对尺度上,没有LRC的物种(即小鼠)的数据也可以与具有LRC的物种(即树鼩)的数据区分开来。小鼠和树鼩中每种类型的V1连接的可视化(改编自Seeman 2018和Bosking 1997)。黑色虚线圆圈表示连接边界短于 1 mm,红色虚线圆圈表示连接边界比例为 V10 尺寸的 1%。
https://doi.org/10.1371/journal.pcbi.1011343.s001
(提夫)
S2 图 “位置”和“形状”刺激数据集中参数的变化。
(A). 对“位置”数据集的中心点距离d进行变化,并测量LRC为0%和30%的网络的分类准确率。请注意,没有LRC的网络(LRC 0%)的性能随着d的增加而显着下降,而有LRC的网络(30%)的性能相当一致。“位置”刺激的分类性能增加,并且随着LRC比率的增加,也变得不那么容易受到刺激条件变化的影响。“形状”数据集由从 0 到 9 中选择的四个数字组成。测试了所有可能的数字组合(总共 210 个)。有LRC的网络(LRC 30%)的性能低于没有LRC的网络(LRC 0%)。
https://doi.org/10.1371/journal.pcbi.1011343.s002
(提夫)
S3 图 “两者”刺激数据集中参数的变化。
中心点距离和所选数字的组合在“两者”刺激数据集中是不同的。利用刺激参数和LRC比值的变化测量网络的小世界系数(SW)和分类精度。(C) 归一化准确性。每条曲线的最大精度设置为 1。(D).在相当大的刺激变化参数体系中,观察到分类性能精度与网络SW之间存在显著相关性。
https://doi.org/10.1371/journal.pcbi.1011343.s003
(提夫)
S4 图 在损失函数的两个项之间选择平衡参数:分类误差和长度惩罚。
横向连接的总长度和分类精度均进行了估计,而平衡因子B则有所不同(顶部)。选择平衡因子 B 以最大化性能成本比 - 最大化分类精度,同时最小化连接的总长度(底部)。
https://doi.org/10.1371/journal.pcbi.1011343.s004
(提夫)
S5 图 用于各种视觉刺激的LRC的出现。
使用“形状”、“位置”和“两者”数据集对网络进行训练和修剪。对于包含“全局”信息(“位置”和“两者”)的数据集,一部分LRC在训练后存活下来。请注意,LRC 的比率在训练的早期阶段急剧下降,但后来逐渐收敛到恒定值。(C). 使用每个数据集训练后横向连接长度的分布。(四)各病例训练后LRC比值比较。请注意,只有当输入数据包含“全局”信息时,LRC 才会存活下来(仅适用于“位置”和“两者”,而不是“形状”数据集)。
https://doi.org/10.1371/journal.pcbi.1011343.s005
(提夫)
S6 图 长距离连接的稳健出现,可在结构变化的性能和布线成本之间取得平衡。
(A).网络大小和连接密度的网络结构参数的变化。网络大小从 17 x 17 到 32 x 32 不等。(B). 在三种网络样本大小(17x17、25x25 和 32x32)中训练期间 LRC 比率的变化。(C).连接密度表示初始布线数量与最大可能布线数之间的比率。该密度从 0.25 到 1 不等,其中 1 表示网络中所有可能的单元对最初布线的条件。(D). 训练过程中 LRC 比率在三个样本密度值(连接密度 = 0.75、0.5 和 0.25)中的变化。(E)训练后观察到的横向连接长度的分布。(F)LRC比值随网络大小的单调增加趋势(n = 20,双侧秩和检验,*p < 0.01)。误差线表示 20 次重复试验的标准偏差。
https://doi.org/10.1371/journal.pcbi.1011343.s006
(提夫)
S7 图 LRC的出现取决于网络的大小,而不是神经元的数量。
(A). S6 图(B)中神经元数量与用于分析的网络大小之间的相关性。在新的模拟中,神经元的数量和网络大小是独立变化的。神经元的数量被修改,同时保持恒定的网络大小(情况1:数量= 25x25,23x23和19x19;大小= 25x25)。在这种情况下,神经元被随机选择并从初始网络中删除。类似地,在保持神经元数量不变的同时,网络大小也发生了变化(情况2:大小= 25x25,27x27和31x31;数字= 25x25)。样本网络训练期间LRC比率的变化(大小= 25x25;数量= 25x25)。当改变神经元数量时,未观察到LRC比率的显着变化(n = 20,双侧秩和检验,n.s. p > 0.11)。当网络规模变化时,LRC比率增加(n = 20,双边秩和检验,*p < 0.001)。误差线表示 20 次重复试验的标准偏差。
https://doi.org/10.1371/journal.pcbi.1011343.s007
(提夫)
确认
我们感谢Daeyeol Lee和Min Whan Jung对这份手稿的早期版本进行讨论和提供评论。
引用
1.斯泰特勒 DD, 达斯 A, 贝内特 J, 吉尔伯特 CD.猕猴初级视觉皮层的横向连接和上下文相互作用。神经元。2002;36: 739–750.密码:12441061
查看文章PubMed/NCBI谷歌学术搜索
2.刘玉杰, 阿雷奥拉 M, 科尔曼 CM, 里昂 DC.通过狂犬病病毒跨神经元追踪揭示的第 1 层锥体神经元的超长距离双锥体 V6 连接。眼脑。2014;6: 45–56.密码:28539788
查看文章PubMed/NCBI谷歌学术搜索
3.Das A,Gilbert C,D.通过猫初级视觉皮层的光学记录揭示的远程水平连接及其在皮质重组中的作用。自然界。1995.第780–784页。密码:7596409
查看文章PubMed/NCBI谷歌学术搜索
4.Gibson JR,Wiesel TN.猫视觉皮层中功能识别神经元的形态学和皮层内投影。自然界。1979;280: 120–125.
查看文章谷歌学术搜索
5.Bosking WH, Zhang Y, Schofield B, Fitzpatrick D. 树鼩纹皮层中定向选择性和水平连接的排列。J 神经科学。1997;17: 2112–2127.密码:9045738
查看文章PubMed/NCBI谷歌学术搜索
6.Chisum HJ, Mooser F, Fitzpatrick D. 2/3层神经元的涌现特性反映了树鼩视觉皮层中水平连接的共线排列。J 神经科学。2003;23: 2947–2960.密码:12684482
查看文章PubMed/NCBI谷歌学术搜索
7.Van Hooser SD,Heimel JA,Chung S,Nelson SB.在没有方向图的哺乳动物初级视觉皮层中缺乏斑块状的水平连接。J 神经科学。2006;26: 7680–7692.密码:16855096
查看文章PubMed/NCBI谷歌学术搜索
8.杜拉克JC,卡茨LC。在雪貂视觉皮层的第2/3层中发展水平投影。大脑皮层。1996;6: 178–183.密码:8670648
查看文章PubMed/NCBI谷歌学术搜索
9.伦伯格 A, 泰勒 CJ, 隆德 JS.大鼠初级视觉皮层V1与V1周围区域之间的区域内和区域间连接。神经。2001;102: 35–52.密码:11226668
查看文章PubMed/NCBI谷歌学术搜索
10.Burkhalter A,Charles V.大鼠视觉皮层中传出投射神经元的局部轴突侧支的组织。神经学杂志, 1990;302: 920–934.密码:2081821
查看文章PubMed/NCBI谷歌学术搜索
11.Kisvárday ZF, Eysel UT.猫视觉皮层第三层(区域17)中相互斑片状网络的细胞组织。神经。1992;46: 275–286.密码:1542406
查看文章PubMed/NCBI谷歌学术搜索
12.Kisvárday ZF, Martin KAC, Freund TF, Maglóczky Z, Whitteridge D, Somogyi P. 猫纹状体皮层中HRP填充的III层锥体细胞的突触靶标。实验脑研究 1986;64: 541–552.密码:3803491
查看文章PubMed/NCBI谷歌学术搜索
13.Malach R,Amir Y,Harel M,Grinvald A.通过光学成像和灵长类动物纹状体皮层中的体内靶向生物细胞素注射揭示的内在连接与功能结构之间的关系。国家科学院院刊, 1993;90: 10469–10473.密码:8248133
查看文章PubMed/NCBI谷歌学术搜索
14.斯捷潘尼安茨A,马丁内斯LM,费雷茨科AS。短距离和长距离连接的比例。国家科学院院刊 2009;106: 3555–3560.
查看文章谷歌学术搜索
15.沃格斯 N, 舒兹 A, 阿尔特森 A, 罗特 S.建模者对新皮层内在水平连接空间结构的看法。神经生物学进展。2010;92: 277–292.密码:20685378
查看文章PubMed/NCBI谷歌学术搜索
16.布扎基 G, 盖斯勒 C, 亨泽 DA, 王晓杰.中间神经元多样性系列:皮质中间神经元的电路复杂性和轴突布线经济性。趋势神经科学。2004;27: 186–193.密码:15046877
查看文章PubMed/NCBI谷歌学术搜索
17.陈博,霍尔,切克洛夫斯基DB。布线优化可以将神经元的结构和功能联系起来。美国国家科学院院刊 2006;103: 4723–4728.密码:16537428
查看文章PubMed/NCBI谷歌学术搜索
18.Horvát S, G?m?nu? R, Ercsey-Ravasz M, Magrou L, G?m?nu? B, Van Essen DC, et al.空间嵌入和布线成本限制了啮齿动物和灵长类动物皮层网络的功能布局。公共科学图书馆生物学. 2016;14: 1–30.密码:27441598
查看文章PubMed/NCBI谷歌学术搜索
19.Kaiser M,Hilgetag CC.由于神经系统中的长距离投影,非最佳组件放置,但处理路径较短。公共科学图书馆计算生物学. 2006;2: 0805–0815.密码:16848638
查看文章PubMed/NCBI谷歌学术搜索
20.Rivera-Alba M, Vitaladevuni SN, Mischenko Y, Lu Z, Takemura SY, Scheffer L, et al.布线经济性和体积排除决定了果蝇大脑中的神经元位置。当代生物学. 2011;21: 2000–2005.密码:22119527
查看文章PubMed/NCBI谷歌学术搜索
21.布尔莫尔 E, 斯波恩斯 O.脑网组织经济。国家修订版神经科学。2012;13: 336–349.密码:22498897
查看文章PubMed/NCBI谷歌学术搜索
22.Van den Heuvel MP, Bullmore ET, Sporns O. Comparative Connectomics.趋势Cogn Sci. 2016;20: 345–361.密码:27026480
查看文章PubMed/NCBI谷歌学术搜索
23.雷奇勒我,马敏屯。脑部工作和脑成像。神经科学年鉴。2006;29: 449–476.密码:16776593
查看文章PubMed/NCBI谷歌学术搜索
24.安吉鲁奇 A, 莱维特 JB, 沃尔顿 EJS, 胡佩 J-M, 布利尔 J, 隆德 JS.初级视觉皮层中局部和全局信号整合的电路。J 神经科学。2002;22: 8633–8646.密码:12351737
查看文章PubMed/NCBI谷歌学术搜索
25.Capparelli F, Pawelzik K, Ernst U. 稀疏编码中的约束推理再现了上下文效应并预测了层流神经动力学。公共科学图书馆计算生物学. 2019;15: e1007370.邮编:31581240
查看文章PubMed/NCBI谷歌学术搜索
26.皮耶希五世,李W,里克GN,吉尔伯特CD。自上而下对视觉皮层局部增益和上下文交互影响的网络模型。美国国家科学院院刊 2013;110: E4108–E4117.密码:24101495
查看文章PubMed/NCBI谷歌学术搜索
27.高度视觉哺乳动物的视觉皮层中没有方向图的方向选择性。J 神经科学。2005;25: 19–28.密码:15634763
查看文章PubMed/NCBI谷歌学术搜索
28.张杰, 宋敏, 白世斌.视网膜-皮质映射比率预测哺乳动物视觉皮层中的柱状和盐和胡椒组织。细胞代表 2020;30: 3270–3279.e3.密码:32160536
查看文章PubMed/NCBI谷歌学术搜索
29.Kaschube M. 视觉皮层中的神经图谱与盐胡椒组织。Curr Opin Neurobiol.2014;24: 95–102.pmid:24492085
查看文章PubMed/NCBI谷歌学术搜索
30.Seeman SC, Campagnola L, Davoudian PA, Hoggarth A, Hage TA, Bosma-Moody A, et al.成年小鼠和人类皮层微电路中的稀疏复发性兴奋性连接。生活。2018;7: 1–27.密码:30256194
查看文章PubMed/NCBI谷歌学术搜索
31.西蒙切利EP,奥尔斯豪森BA。自然图像统计和神经表示。神经科学年鉴。2001;24: 1193–1216.pmid:11520932
查看文章PubMed/NCBI谷歌学术搜索
32.马尔登 SF、布里奇福德 EW、巴塞特 DS。小世界倾向和加权大脑网络。科学代表 2016;6: 1–13.
查看文章谷歌学术搜索
33.Latapy M, Magnien C, Vecchio N Del. 大型双模网络分析的基本概念。Soc 网络。2008;30: 31–48.
查看文章谷歌学术搜索
34.Watts DJ,Strogatz SH.“小世界”网络的集体动态。自然界。1998;393: 440–442.pmid:9623998
查看文章PubMed/NCBI谷歌学术搜索
35.朴奕, 白 S, 白 SB.一种受大脑启发的网络架构,用于在浅层分层神经网络中进行经济高效的对象识别。神经网络。2021;134: 76–85.密码:33291018
查看文章PubMed/NCBI谷歌学术搜索
36.Hubel D,Wiesel T.猫视觉皮层中的感受野,双眼相互作用和功能结构。生理学杂志. 1962;160: 106–154.pmid:14449617
查看文章PubMed/NCBI谷歌学术搜索
37.万德尔BA,杜穆兰SO,布鲁尔AA。人类皮层中的视野图。神经元。2007.第366–383页。密码:17964252
查看文章PubMed/NCBI谷歌学术搜索
38.阿卡罗 MJ, 庞塞 C, 利文斯通 M.将帽子误认为脸的神经元。生活。2020;9: 1–19.密码:32519949
查看文章PubMed/NCBI谷歌学术搜索
39.迪卡洛 JJ, 佐科兰 D, 鲁斯特北卡罗来纳州.大脑如何解决视觉物体识别问题?神经元。2012;73: 415–434.密码:22325196
查看文章PubMed/NCBI谷歌学术搜索
40.Turner MH,Sanchez Giraldo LG,Schwartz O,Rieke F.用于理解自然视觉的刺激和目标导向框架。纳特神经科学。2019;22: 15–24.密码:30531846
查看文章PubMed/NCBI谷歌学术搜索
41.Luo W, Li Y, Urtasun R, Zemel R. 了解深度卷积神经网络中的有效感受场。高级神经Inf过程系统2016;4898–4906.
查看文章谷歌学术搜索
42.Yamins DLK, Hong H, Cadieu CF, Solomon EA, Seibert D, DiCarlo JJ. 性能优化的分层模型预测高级视觉皮层中的神经反应。美国国家科学院院刊,2014;111:8619–8624。密码:24812127
查看文章PubMed/NCBI谷歌学术搜索
43.Cadieu CF, Hong H, Yamins DLK, Pinto N, Ardila D, Solomon EA, et al. 深度神经网络可与灵长类动物IT皮层的表示相媲美,用于核心视觉对象识别。贝丝奇·公共科学图书馆计算生物学. 2014;10: e1003963.pmid:25521294
查看文章PubMed/NCBI谷歌学术搜索
44.用于对象识别的递归卷积神经网络.Proc IEEE Comput Soc Conf Comput Vis Pattern Recognit.2015;07-12-3367月: 3375–<>.
查看文章谷歌学术搜索
45.Spoerer CJ,McClure P,Kriegeskorte N.递归卷积神经网络:生物对象识别的更好模型。前心理. 2017;8: 1–14.
查看文章谷歌学术搜索
46.Montobbio N,Bonnasse-Gahot L,Citti G,Sarti A. KerCNNs:用于损坏图像分类的生物学启发的横向连接。2019;arXiv预印本arXiv:1910.08336。
查看文章谷歌学术搜索
47.Javaheripi M, Rouhani BD, Koushanfar F. SWNet: Small-World Neural Networks and Rapid Convergence.2019;arXiv预印本arXiv:1904.04862。
查看文章谷歌学术搜索
48.Xie S, Kirillov A, Girshick R, He K. 探索用于图像识别的随机有线神经网络。Proc IEEE Int Conf Comput Vis. 2019;2019-Octob: 1284–1293.
查看文章谷歌学术搜索
49.Bassett DS, Bullmore E. Small-world brain Network.神经。2006;12: 512–523.密码:17079517
查看文章PubMed/NCBI谷歌学术搜索
50.斯波恩斯O,亲爱的CJ。大大脑中的小世界。美国国家科学院院刊 2006;103: 19219–19220.密码:17159140
查看文章PubMed/NCBI谷歌学术搜索
51.何莹, 陈志军, 埃文斯 AC. MRI皮质厚度揭示的人脑中的小世界解剖网络。大脑皮层。2007;17: 2407–2419.密码:17204824
查看文章PubMed/NCBI谷歌学术搜索
52.巴塞特DS,布尔莫尔ET。重新审视小世界大脑网络。神经。2017;23: 499–516.pmid:27655008
查看文章PubMed/NCBI谷歌学术搜索
53.Ko H,Mrsic-Flogel TD,Hofer SB.在没有视觉体验的情况下,皮质微电路中出现特征特异性连接。J 神经科学。2014;34: 9812–9816.密码:25031418
查看文章PubMed/NCBI谷歌学术搜索
54.鲁萨泽ES,史崔克议员。活动在雪貂区域17的远程水平连接发展中的作用。J 神经科学。1996;16: 7253–7269.密码:8929433
查看文章PubMed/NCBI谷歌学术搜索
55.金J, 王Y, 斯瓦德洛哈, 阿隆索.在视觉皮层中输入方向柱的丘脑内外的群体感受野。纳特神经科学。2011;14: 232–240.pmid:21217765
查看文章PubMed/NCBI谷歌学术搜索
56.白小昊,林加赫·视觉皮层中方向图的视网膜起源。纳特神经科学。2011;14: 919–925.pmid:21623365
查看文章PubMed/NCBI谷歌学术搜索
57.Sharma J,Angelucci A,Sur M.听觉皮层中视觉定向模块的诱导。自然界。2000;404: 841–847.密码:10786784
查看文章PubMed/NCBI谷歌学术搜索
58.自发视网膜波可以在视觉皮层中产生长距离水平连接。J 神经科学。2020;40: 6584–6599.密码:32680939
查看文章PubMed/NCBI谷歌学术搜索
59.Keil W, Kaschube M, Schnabel M, Kisvarday ZF, Lowel S, Coppola DM, et al.对“视觉皮层中定向柱进化的普遍性”的评论的回应。科学。2012;336: 413–413.
查看文章谷歌学术搜索
60.特拉赫滕贝格 JTT,史崔克 MPP。发育中的视觉皮层中水平连接的快速解剖可塑性。J 神经科学。2001;21: 3476.密码:11331376
查看文章PubMed/NCBI谷歌学术搜索
61.突触收敛调节前馈神经网络中同步依赖尖峰转移。J Comput 神经科学。2017;43: 189–202.密码:28895002
查看文章PubMed/NCBI谷歌学术搜索
62.Park Y, Choi W, Paik SB. 突触可塑性中学习率的对称性调节了灵活和稳定记忆的形成。科学代表 2017;7: 5671.密码:28720795
查看文章PubMed/NCBI