《厦门杂志期刊论文发表-深度学习,用于C的行为研究中强大而灵活的跟踪。秀丽隐杆线虫》期刊简介
厦门杂志期刊论文发表-深度学习,用于C的行为研究中强大而灵活的跟踪。秀丽隐杆线虫
凯瑟琳·贝茨 ,金乐 ,杭璐
出版日期: 2022年04月08日
抽象
强大而准确的行为跟踪对于行为学研究至关重要。跟踪和提取行为的常用方法依赖于用户调整的启发式方法,这些启发式方法可能因不同的个体、环境和实验条件而有很大差异。因此,它们很难在具有复杂,异质环境条件的大规模行为研究中实施。最近开发的用于对象识别的深度学习方法,如Faster R-CNN,在速度,准确性和鲁棒性方面具有优势。在这里,我们表明,Faster R-CNN可用于识别和检测复杂环境中各种生命阶段的秀丽隐杆线虫。我们应用该算法来跟踪发育过程中的动物速度,繁殖成虫的繁殖率和空间分布,以及老龄化种群的行为下降。通过这样做,我们展示了Faster R-CNN在各种实验条件下的灵活性,速度和可扩展性,说明了它在未来大规模行为研究中的普遍用途。
作者简介
行为和行为学研究通常依赖于在复杂,异质的环境和实验条件下准确跟踪和处理大量行为记录的能力。在这些条件下,传统的图像处理技术可能会失败,并阻止提取基本的行为信息,例如位置和速度。我们提出了一种易于使用的基于深度学习的工具,使研究人员能够在各种不同的环境中轻松跟踪和检测常用的模式生物(秀丽隐杆线虫)。我们检查其整个生命周期中的行为和运动,以及生殖繁殖力。我们还提供了一个通用的、免费的、基于Web的工具,用于为任何感兴趣的对象开发深度学习对象检测模型。
引文: Bates K,Le K,Lu H(2022)深度学习,用于C行为研究中稳健而灵活的跟踪。秀丽隐杆线虫。PLoS Comput Biol 18(4):e1009942。https://doi.org/10.1371/journal.pcbi.1009942
编辑 器: 芭芭拉·韦伯,爱丁堡大学,英国
收到: 七月 27, 2021;接受: 二月 21, 2022;发表: 四月 8, 2022
版权所有: ? 2022 贝茨等人。这是一篇根据知识共享署名许可条款分发的开放获取文章,该许可允许在任何媒体上不受限制地使用,分发和复制,前提是注明原始作者和来源。
数据可用性: 所有原始和带注释的数据集以及经过训练的模型都可以通过 figshare (https://doi.org/10.6084/m9.figshare.13678705.v1) 作为补充材料提供。补充数字和媒体可以在figshare(https://doi.org/10.6084/m9.figshare.13681675.v4)上找到。该管道可通过github(https://github.com/lu-lab/frcnn-all-in-one)获得。有关用于显影测定的成像系统的更多详细信息,请访问我们的GitHub:https://github.com/lu-lab/mi-pi。
资金: 本研究由美国NSF(1764406)和美国国立卫生研究院(R01AG056436,R01GM088333)资助,美国国立卫生研究院F31奖学金资助KB(F31GM123662)和美国NSF GRF资助KL(DGE-1650044)。资助者在研究设计,数据收集和分析,出版决定或手稿准备方面没有任何作用。
相互竞争的利益: 作者宣布不存在相互竞争的利益。
介绍
行为学在神经科学、遗传学和衰老领域一直至关重要[1-4]。即使在简化的C中也是如此。秀丽隐杆线虫模型,已用于探测各种行为学问题[5-10]。在这些实验中,稳健而准确地跟踪和测量C的行为是非常有价值的。大规模的秀丽隐杆线虫。多年来,收集大规模行为数据的能力有了显着提高。虽然许多行为测定包括在立体显微镜下在琼脂平板上手动记录少量动物,但最近的自动化方法大大增加了研究人员可以探索的生物学问题的多样性。从多相机系统到分时成像系统,再到低成本成像系统,硬件的进步使用户能够更轻松地获得大量原始行为视频[11-15]。除了数据采集方面的改进外,养殖方法也取得了进步,这使得探索更复杂的环境条件成为可能。这些范围从允许以个体水平分辨率跟踪种群的单个“竞技场”到允许精确时空环境控制的微流体装置[12,16,17]。虽然这些技术进步使探索与神经科学和衰老相关的复杂行为的能力成为可能,但行为记录和数据的这种增加将瓶颈转移到了大规模图像数据集的分析上。这对于在异质环境中拍摄的图像尤其重要,例如在更复杂的自然条件下拍摄的图像。
分析行为数据的主要挑战之一是检测和识别感兴趣的物体,特别是在各种成像和环境条件下。虽然目前有许多现有的图像处理工具用于检测、识别和随后分析蠕虫的行为[18-20],但仍有未满足的需求。这些工具通常使用传统的图像处理方法,例如背景减法,基于对象颜色或强度的阈值,或使用形态特征(例如大小)来检测和识别感兴趣的对象。例如,在流行的蠕虫跟踪器Tierpsy Tracker [18]中,用户根据实验条件手动优化参数,随后能够从其数据集中提取行为数据。WormPose [20]利用传统的图像处理技术对动物进行分割,再加上机器视觉来解析复杂的形状和姿势,而无需人工注释或标记。通过这些分割和跟踪工具,用户可以提取各种信息性的行为表型,例如大小,运动速度和个体姿势。然而,随着更复杂的实验装置的出现,引入了更多的异质实验或环境条件,调整这些传统方法以稳健而准确地检测感兴趣的物体并非易事。例如,在成像对比度低或不均匀的条件下,基于强度值的基本阈值可能不准确。如果动物或感兴趣的对象只是微妙地移动,则背景减法不能用于轻松区分感兴趣的对象和图像的背景。即使使用像WormPose这样的高级工具,这些挑战也使得很难获得准确的初始训练集来解决复杂的姿势。此外,如果形态特性存在广泛的范围,例如动物在发育过程中的剧烈大小变化,则很难依靠传统的形态特征(例如大小)作为识别感兴趣物体的方法。因此,随着行为数据集规模的增加,需要一种强大、灵活和简单的方法来检测和识别蠕虫,这些蠕虫能够以最少的用户输入在各种不同的实验条件下工作。
为了解决这个问题,我们转向深度学习,它已经成为一种强大的数据驱动工具,用于对象检测。深度学习以前已被用于提取动物的姿势估计值,这使得实验者能够测量复杂的表型,从苍蝇的步态模式到检查小鼠的气味轨迹跟踪[21-23]。然而,这些现有工具中的许多工具都使用复杂的架构,并且通常难以设置,并且需要大型,难以注释的训练集,以及更大的计算能力来对每个单独的像素进行分类。相比之下,识别对象边界框的对象检测可以用作提取有意义的行为表型的度量,与用于像素分类的深度学习方法相比,需要更少的计算能力和注释时间,同时提供比启发式分割方法更高的准确性。虽然有许多深度学习对象检测方法,但Faster R-CNN架构是一种广泛使用的方法,它使用区域建议网络(RPN)与卷积神经网络(CNN)相结合来提取每个检测到的对象的位置(以边界框的形式)和估计的可能性[24]。它是性能最佳的物体检测方法之一,通过标准化COCO数据集上检测的平均平均精度(mAP)来衡量[25]。与其他具有等效或更高 mAP 的 CNN 方法相比,Faster R-CNN 架构的计算成本较低,因此对大量数据有利。此外,Faster R-CNN架构已经在广泛的应用中进行了测试,从车辆和行人检测到通过细胞分类检测疟疾[24,26]。在动物检测的背景下,它已被用于概念验证应用,以检测畜牧业条件下的牛,以及检测野外相机陷阱中的各种物种[27-29]。
在这里,我们实现了更快的R-CNN,以识别和定位各种不同条件下的蠕虫,而无需广泛的用户输入。我们发现,在初始训练之后,深度学习模型可以快速准确地检测出感兴趣的对象。我们在各种不同的录制平台和成像模式下展示了它的灵活性。我们还展示了它在各种不同年龄(从L2到死亡)中检测蠕虫的能力,展示了它在不同体型和运动水平上的灵活性,并说明了如何使用它来提取有用的行为指标和趋势,以深入了解生物学问题,例如产卵,发育和衰老中的行为下降。最后,我们提供了一个基于Web的管道(https://github.com/lu-lab/frcnn-all-in-one),用于使用新数据测试我们训练的模型,并使其他研究人员能够使用新数据和类注释和训练自己的对象检测模型。
结果
为了说明在复杂条件下识别和跟踪物体的困难,我们研究了三种常见的实验设置。第一种是在播种食物的琼脂平板上跟踪单个蠕虫从L2幼虫阶段到成年期的第1天(图1A)。在此期间,蠕虫可以在整个视野中自由漫游,动物在成年早期被成像。这种类型的低倍率成像设置通常用于长期和高通量成像[19,30-33]以及寿命成像[11]。对于小型L2动物,跟踪的主要挑战是个体尺寸小(从长度约360μm开始),尽管图像对比度低,放大倍率低,但将其与背景区分开来。调整基于启发式的图像处理工具以优化幼年动物的小尺寸和低对比度,随着蠕虫的生长,会带来进一步的挑战(S1A-S1E图)。随着蠕虫的发展,背景的对比度会提高;然而,背景中的其他细微变化(例如在草坪上形成的卵或轨迹)在使用针对幼年动物调整的启发式方法时可能会被识别为动物(S1C-S1E图)。这些启发式方法还高度依赖于环境和成像条件。如果照明或环境的变化是实验的一个组成部分,这会导致无法在没有进一步调整的情况下处理数据(S1E图)。总之,这些挑战使处理发展行为数据成为一项劳动密集型任务。
thumbnail 下载:
个人电脑幻灯片
巴新放大图片
断续器原始图像
图 1. 深度学习可用于检测各种复杂环境中的对象。
A.跟踪单个蠕虫的整个发育期(从L2到第1天成年期)。(左)随时间变化的板图像。比例尺为5mm。红色框是跟踪蠕虫的更快 R-CNN 检测。(右)放大了WoP Faster R-CNN模型检测到的蠕虫的图像。比例尺为0.5mm。B.WoP模型应用于不同的实验设置(微流体柱阵列室中的成虫)。WoP Faster R-CNN模型检测到的蠕虫用红色边界框标记。比例尺为3毫米.C。琼脂平板上产卵的成虫,检测到的卵以蓝色包装,检测到的蠕虫以红色包装。所有检测均使用鸡蛋查找器更快的R-CNN模型进行。比例尺为1mm。(右)放大模型检测到的一簇卵的图像。D.跟踪蠕虫的成年期。(顶部)微流体室阵列,在每个腔室内培养单个蠕虫(白色箭头表示具有单个蠕虫的腔室)。白色比例尺为1.5mm。(底部)放大了整个成年生命周期中不同食物水平下的单个蠕虫的图像。WiCh Faster R-CNN模型检测到的蠕虫被框成红色。WiCh Faster R-CNN模型检测到的卵簇以蓝色框开框。比例尺为 0.5 毫米。
https://doi.org/10.1371/journal.pcbi.1009942.g001
第二个实验系统测量蠕虫繁殖力随时间的变化趋势。允许成虫在播种的琼脂平板上漫游并自由产卵(图1C)。由于卵子尺寸小(~50μm)[34],放大倍率和对比度低,并且卵子倾向于成簇产卵,因此手动计算卵的数量随时间推移并标记其空间位置可能是时间和劳动密集型的。此外,一些研究可能涉及不同环境(例如在细菌草坪上或室外)的产卵行为,其中成像条件和对比度在识别这些物体并将其与视野中的其他物体区分开来方面存在重大问题。与动物相比,卵的不动性也阻止了背景减法作为有用工具的使用。这些实际限制使得难以大规模跟踪繁殖力和其他产卵表型。
第三个例子是跟踪个体在衰老过程中的行为和运动。蠕虫在微流体室阵列(图1D,顶部)中培养,从L4阶段到死亡。对个体进行纵向监测,并在其整个生命周期中在各种不同的食物浓度下间歇性地记录其行为(图1D,底排)。虽然蠕虫的大小和对比度比发育过程中的幼年动物更好,但有两个固有的挑战。首先,和以前一样,环境是异质的 - 在室内,除了蠕虫之外,通常还有移动的物体(例如碎片或个体产下的卵),因此即使在高度运动的情况下也很难准确识别和检测蠕虫的位置。其次,随着蠕虫年龄的增长并最终死亡,运动水平较低,因此很难通过依赖运动的传统图像处理技术来识别蠕虫。在使用需要调整用户参数的传统图像处理工具时,解决这些挑战非常麻烦。例如,当为单个视频选择参数(S2A和S2B图,顶行)时,它无法准确识别和检测相同年龄和相同环境和成像条件下的蠕虫的位置(S2A和S2B图,底行)。当蠕虫处于繁殖期时,在腔室中聚集在一起的产卵的存在可能导致蠕虫的错误识别和不准确的分割(S2A图)。当蠕虫老化并且仅执行小的,细微的运动时,算法通常会完全截断或错误地识别蠕虫的位置(S2B图)。
对于板载和片上条件,由于蠕虫周围环境复杂,传统的检测和跟踪方法无法可靠地识别蠕虫的位置。虽然基于启发式的经典分割方法可以提供CNN对象检测方法无法提供的姿势信息,但需要专门调整各种视频的参数,使得在每个演示的实验中大规模部署这些方法具有挑战性。因此,需要一种快速和可推广的方法来识别和跟踪在诸如此类具有挑战性的成像条件下感兴趣的物体。
为了应对这些挑战,我们实施了 Faster R-CNN,这是一种在物体检测(包括小物体)方面具有高精度的深度学习网络。根据在COCO图像数据集上预先训练的现有Faster R-CNN模型,我们使用各自的行为数据集调整了模型[35,36]。对于三种不同实验条件中的每一种,我们训练了一个单独的更快R-CNN模型。对于在琼脂平板上培养的发育蠕虫的情况,我们创建了平板蠕虫()模型。对于WoP模型,我们在来自更大数据集的1,122个随机选择和代表性图像中注释了带有边界框的蠕虫,并使用其中的1,008个模型训练模型,将其余部分作为测试集来评估模型。为了测量蠕虫的繁殖力,我们创建了卵子查找器模型。我们在127张图像中注释了卵和蠕虫,并使用其中114张来训练模型,其余的用于评估模型性能。对于WoP和卵子查找器模型,我们只使用了N2动物的图像。最后,对于在微流体室中培养的蠕虫的更特殊条件,我们创建了腔内蠕虫(WiCh)模型。对于WiCh模型,我们在5,176张图像中注释了卵和蠕虫,其中4,658张用于训练,其余的用于评估模型。
当我们定性检查这些训练模型的边界框输出时,我们发现许多使用传统方法的故障情况都得到了解决(图1,S1和S2)。在WoP数据集中,当蠕虫非常小时,在非常低对比度的图像以及生命后期的高对比度图像中准确识别蠕虫(图1A)。我们还发现,该模型可以在非常不同的成像条件下检测蠕虫,而这些成像条件是未经过训练的,例如图1B中在液体介质中成像的动物(另见 https://doi.org/10.6084/m9.figshare.13681675.v6 中的补充电影3)。尽管图1B与图1A的对比度极为不同,但视野中的大多数动物都成功被检测到。那些未被发现的动物可能是训练集的结果,该训练集不包括来自类似成像设置的任何图像以及为确保定位蠕虫时低误报率而指定的高置信度(80%)。这非常重要,因为它表明该模型与启发式技术相比更具通用性,因此在实际应用程序中更广泛地使用。在卵子发现器数据集中,我们发现尽管卵子体积小且倾向于聚集在一起,但卵子被很好地识别出来(图1C)。值得注意的是,当我们将卵子查找器模型应用于Open Worm Movement数据库中的公开视频时,我们能够检测到蠕虫和卵子(https://doi.org/10.6084/m9.figshare.13681675.v6 中的补充电影1)。最后,在更具体的WiCh数据集中,即使在食物密度最高,对比度最低的环境中以及在蠕虫运动减少的较晚年龄,蠕虫也被准确识别(图1D)。此外,可以准确地识别卵簇,从而可以区分主动蠕虫运动与卵簇的被动运动(图1D)。
接下来,我们定量评估了我们的模型,以确保其准确性(表1)。对象检测中使用的常见指标是平均精度 (AP),它使用实际边界框与模型在不同置信度阈值下预测的边界框之间的重叠来评估模型性能。等于单位的 AP 表示完美的预测。对于WoP模型,我们能够获得0.969的平均精度。与最年长的动物(22张测试图像)相比,我们的测试集最年轻动物(66张测试图像)的AP为1.0,误报将AP略微降低至0.876(S3图),使模型在各个年龄段都健壮,而无需进一步调整。对于我们的卵子查找器模型,蠕虫AP为0.932,卵AP为0.74(S3图)。虽然鸡蛋的平均精度不如我们检测到的其他物体高,但我们发现它能够识别测试集中79%的鸡蛋,并且测试集模型的灵敏度为0.84(S3图)。模型对卵子的保守识别可能源于卵的大小,使得检测和地面事实的重叠阈值(交集超过结合)特别敏感,以及卵子的强度与其他图像特征相似,例如动物运动产生的轨迹,以及卵子之间的闭塞。在实践中,我们发现该模型在进一步的实验中很好地识别了产卵表型的趋势(见下文,图2),并且能够在其他实验室收集的数据中检测卵子(https://doi.org/10.6084/m9.figshare.13681675.v6 补充电影1)。还可以通过使用更多的训练数据来提高平均精度。对于 WiCh 模型,我们得到的 AP 为 0.998。该模型在数据集内的不同条件下也很可靠,包括不同的年龄,对比度水平和感兴趣的物体(S3图),模型不仅可以检测蠕虫,还可以检测视野内的产卵(AP为0.932)。
thumbnail 下载:
个人电脑幻灯片
巴新放大图片
断续器原始图像
图 2. 使用更快的R-CNN进行自动卵子检测。
A. 来自 Egg-Finder 数据集的代表性图像。覆盖在右侧插图上的蓝框表示使用鸡蛋查找器更快R-CNN模型在置信度分数阈值0.01下进行鸡蛋检测。比例尺为1mm.B手动卵子计数和卵子查找器之间的一致性更快的R-CNN模型卵计数。手动计算单个动物产下的卵,并使用Faster R-CNN模型,置信度评分阈值为0.01。在n = 29只个体动物的两个时间点测量这两个计数之间的一致性。使用Kolmogorov-Smirnov 2样本检验比较分布,发现分布没有显着差异(KS统计量为0.155,p值为0.491)。C.29只动物在2个时间点的产卵率分布。每个分布中的水平条表示单个动物的卵计数。使用Kolmogorov-Smirnov 2样本测试比较分布。在时间点1手动计数的产卵率与在第二时间点手动计数的产卵速率存在显著差异(KS统计量为0.448,p值为0.0053)。使用测卵器计算的产卵速率更快R-CNN模型在时间点一的置信阈值为0.01,与使用取卵器计数的产卵率在时间点2处具有相同阈值的更快R-CNN模型的产卵率显着不同(KS统计数据为0.448,p值为0.0053)。对于每个时间点,将更快的R-CNN产卵率分布与手动计数分布进行比较,并且对于两个时间点,KS测试统计量确定为0.2069,p值为0.5141。D.产卵偏好N2(n = 16)和tph-1(n = 13)动物。每个分布中的水平条表示单个动物的卵计数。与草坪外相比,阳性分数表明在草坪上产卵的倾向更高。负分表明在草坪上产卵的倾向较高(参见计算公式的材料和方法)。使用Kolmogorov-Smirnov 2样本测试比较分布。N2与tph-1分布在手动计数(KS统计为0.473,p值为0.0018)和卵子发现器更快的R-CNN模型计数(KS统计为0.459,p值为0.0028)方面都存在显着差异。
https://doi.org/10.1371/journal.pcbi.1009942.g002
thumbnail 下载:
个人电脑幻灯片
巴新放大图片
断续器原始图像
表 1. 使用更快的 R-CNN 对发育、产蛋和衰老检测模型的不同置信阈值的检测结果。
https://doi.org/10.1371/journal.pcbi.1009942.t001
除了模型在各种条件下灵活切换而无需额外的参数调整外,每个图像的推理时间很短(在我们的设备上约为131 ms /帧)。这很重要,因为在实践中,这些可推广的策略可以减少量化新数据所需的时间和精力。例如,在不同条件下使用大型数据集的情况下,传统的手动注释或用户调整参数的实现将需要大量的时间和体力劳动。相比之下,深度学习使用户能够以更有效的方式分析大型行为数据集。
接下来,我们将该算法置于一个真实的用例中 - 监测C的产卵表型。秀丽隐杆线虫。产卵率是健康[37]、进化适应性[38-40]的指标,对于理解生殖回路的调节机制也很重要[37,41-43]。然而,小尺寸(约50μm)和大量卵(每只成年雌雄同体约300个)使得测量繁殖力成为一项具有挑战性的任务。手动计数鸡蛋需要花费大量时间,但通常仍然是首选方法,因为现有的自动鸡蛋检测方法对成像条件非常敏感,需要高图像均匀性和高放大倍率[43-45]。可能是由于该任务的挑战性,一些流行的蠕虫行为量化软件包不包括跟踪产卵的方法[18,19,46]。其他卵子计数方法依靠专门的细胞术来计数从液体培养物中冲洗的卵子[47,48]。另一个使卵计数变得困难的因素是产卵事件的爆发式时间[49-51]。许多在时间上接近的产卵事件会导致卵聚集在一起,这使得识别单个卵具有挑战性,并且蠕虫的身体对卵的遮挡也使得识别和定位卵具有挑战性。此外,成虫赖以生存的细菌草坪在成虫爬行时变得高度纹理化,这使得识别卵和动物对于图像阈值方法更具挑战性。为了确定卵子查找器模型是否可以解决这些问题,我们将其应用于计数和定位卵子(图2)。我们收集了个体第1天成虫的图像以及它们在两个时间点产下的卵,在将动物转移到个体培养的典型细菌密度范围内的平板上2和5小时。虽然我们定性地发现我们的模型没有成功识别每个卵子,但手动卵子计数和模型中的卵子计数之间的一致性是显着的(图2A和2B)。即使整个视野的照明不均匀,当卵产在草坪上时,以及当卵聚集在一起时,模型也能产生准确的结果(如图2A所示)。有时,由于蠕虫对卵的遮挡,蠕虫从它们身上移开后,会检测到最近产下的卵。虽然该模型可能会因此而在检测卵子方面产生短暂的滞后,但它对于评估产卵事件之间的时间趋势仍然很有价值。面对高度多变的条件,这种方法的稳健性表明,这种方法比可以捕获重要趋势的手动计数鸡蛋更快。这种方法特别适用于大型数据集和电影,在这些数据集和电影中,手动注释每帧的难度将大得令人望而却步,或者当成像条件(如有纹理的细菌草坪)妨碍阈值技术表现良好时。
接下来,我们表明,我们可以应用该算法,从两个时间点的个体动物育雏图像中准确估计成年期早期每只动物的两个产卵率(图2C)。这些结果与先前报道的约4-10枚卵/小时的产卵率相符[50]。手动和更快R-CNN模型蛋计数的产蛋率分布在两个时间点的统计上均无法区分,而比较Faster R-CNN模型蛋计数分布和手动卵计数分布在时间点之间显示出显着差异。我们注意到,产卵率随着时间的推移而下降,我们怀疑这是由于将动物从拥挤的生长板转移到单个板块。氧、二氧化碳和食物水平的这种变化可能会促进更高的产蛋率,直到个体适应新环境并开始耗尽食物[37,49,52]。使用卵子发现器模型检测这种差异的能力表明,Faster R-CNN可用于以比手动计数卵子更省时更省力的方式识别生物学相关的表型。
除了识别速率表型外,我们还使用卵子查找器模型来识别使用食物感应突变体tph-1的空间表型。已知这些动物在漫游状态下花费的时间较长,并且在遇到食物时暂停的速度也较慢[13,53,54]。基于这一点和轶事证据(Dhaval Patel,个人交流),我们预计与野生动物相比,tph-1动物会在细菌草坪上产下更多的卵。为了检查情况是否如此,我们定义了一个鸡蛋位置偏好评分,使得在细菌草坪上产下的卵数量越多,就会产生积极的偏好评分,而负偏好评分则表明细菌草坪上下放的鸡蛋数量更多。我们发现,WT和tph-1动物的偏好评分分布与在细菌草坪上产卵偏好较低的tph-1动物一致,并且当手动计数和使用Faster R-CNN模型计数时,两种分布显着不同(图2D).此示例表明,该模型可以区分鸡蛋并捕获草坪内外的重要趋势,而不管照明、对比度如何,尽管成年动物的轨迹宽度几乎与鸡蛋大小相同。此外,我们将卵子查找器更快R-CNN模型应用于公开可用的Open Worm Movement数据库中的电影,发现我们能够在没有额外培训的情况下成功检测这些电影中的卵子和蠕虫(https://doi.org/10.6084/m9.figshare.13681675.v6 中的补充电影1)。我们还注意到,由于Faster R-CNN算法没有考虑运动,因此具有运动缺陷的动物,如tph-1或更严重的运动突变体,应该可以很好地检测出来。总体而言,卵子发现器模型在不同成像条件下在两个数据集中表现良好,并且能够在我们自己的数据集中发现与人类注释器相同的卵子相关表型,这再次表明,Faster R-CNN模型可以取代手动劳动,特别是对于具有复杂成像条件的大型数据集和电影。
除了通过端点快照量化行为的各个方面外,我们还推断,Faster R-CNN还可用于跟踪动物随时间的变化。估计动物的线性和角速度是动物行为状态(例如居住/漫游)的有用指标,也是在足够长的时间尺度上观察时的潜在健康指标[16,55]。使用使用WoP模型检测到的蠕虫边界盒的动态位置,我们评估是否有可能获得准确的运动测量值。我们将从模型中获得的检测到的边界框的质心与蠕虫发育约2天内在5个系列时间点处的手动注释姿势的质心进行了比较(图3A和3B)。在整个~2天的观测中,物体检测模型能够准确识别蠕虫,与最小的动物平均为124像素(~0.12毫米)。2)在区域(图3A,左列)。这个时间尺度包括从L2晚期到成年期的发展。我们发现,检测到的边界框质心通常与手动注释的蠕虫边界的质心接近(0.212 mm +/- 0.197均值+/- 标准偏差),这表明这种方法可以在离散的时间点提供准确的蠕虫位置(图3A,右列和S6B-S6D)。为了测试我们是否也可以使用这种方法准确地测量运动,我们使用间隔一分钟的时间点,并计算出边界框质心和手动注释的蠕虫形状质心在这些时间点之间的运动。这两种运动测量值之间的差异平均为0.126mm +/- 0.083mm(平均+/-标准),并且在手工注释的形状质心和边界框质心之间清楚地复制了运动趋势(图3B和S6C)。我们进一步将手工注释数据集中的峰值和平均速度与使用WoP Faster R-CNN模型质心计算的峰值和平均速度进行了比较。我们发现峰值和平均速度非常相似,在5MP图像中的像素顺序上存在差异(S1表)。同样,我们发现我们能够非常准确地概括使用WoP Faster R-CNN模型[13](S4和S5 Figs以及 https://doi.org/10.6084/m9.figshare.13681675.v6 中的补充电影3)来概括公开可用数据集的线性和角速度以及峰值和平均速度。即使不知道构成蠕虫的精确像素,蠕虫的范围也可以用作运动和速度的粗略测量。
thumbnail 下载:
个人电脑幻灯片
巴新放大图片
断续器原始图像
图 3. 跟踪开发中的行为。
一个。在5个示例时间点跟踪单个N2动物的整个发育过程。在左侧,全尺寸图像被一个红色框覆盖,突出显示每个时间点的蠕虫位置。在右侧,图像的框内部分覆盖着示例时间点(蓝色)和五分钟后(黄色)的手动注释,以及 WoP Faster R-CNN 模型在示例时间点(紫色)和五分钟后(橙色)检测到的边界框的中心点。B.热图比较蠕虫通过手动注释和WoP更快的R-CNN模型检测计算的距离。对于A中的每个时间点和随后的五分钟,蠕虫行进的距离是通过手动分割的动物和WoP Faster R-CNN检测计算的。手动距离是根据每对时间点在分段动物的质心处行进的欧几里得距离计算的,而行进的R-CNN距离是根据每对时间点的WoP更快R-CNN边界框的质心之间的欧氏距离计算的。C.使用Faster R-CNN模型测量的质心运动热图,从L2晚期到成年期的发育过程中,10个个体。D.更快的R-CNN衍生运动速度的直方图,例如A和B中的动物。
https://doi.org/10.1371/journal.pcbi.1009942.g003
接下来,我们研究了如何使用这种方法在开发过程中持续跟踪行为。发育过程中的行为是个人主义的,可以影响C中的长期行为和神经肽信号传导。秀丽隐杆线虫[13]。幼年动物的小尺寸和低对比度的双重挑战以前已经施加了严格的硬件要求,以确保高质量的图像(例如在更高的放大倍率下),从而限制了长期发育实验的可扩展性。相比之下,尽管图像质量低且发展中的蠕虫的大小和对比度存在极大变化,但WoP模型仍可以提取蠕虫位置。我们从L2晚期到成年期的2天内以1分钟的间隔收集10只动物的延时图像,并检测到每张图像的蠕虫边界框(图3C和 https://doi.org/10.6084/m9.figshare.13681675.v6 中的补充电影2)。运动的大小随着时间的推移而增加,同样,我们发现随着动物的发育,检测到的边界盒的大小随着时间的推移增加了大约5倍(图3C和S6A)。接下来,我们研究了我们的质心数据是否可用于识别漫游和居住状态,这是饱腹感的指标,受神经调节剂的影响。秀丽隐杆线虫在停留时大部分时间都以较慢的速度移动,一小部分时间寻找其他食物来源(漫游)[50,53,56]。我们计算了每只动物的线性和角速度,发现虽然两种状态之间的线速度几乎没有分离,但角速度存在惊人的分裂,这与在相同的1分钟采样率下其他数据集中的漫游和停留状态分离一致(图3D和S7以及 https://doi.org/10.6084/m9.figshare.13681675.v6 中的补充电影4和5, 并参见材料和方法)。虽然较低的采样率会在分类中引入一些损失,但我们强调,当应用于具有较高采样率的独立收集的数据时,使用更快的R-CNN WoP模型可以很好地概括线性和角速度(S5图)。因此,这项技术可以使研究人员从边界框识别提供的有限信息中推断出有关动物行为状态的高级信息。
接下来,我们测试了该模型在现实的生物学发现背景下如何用于跟踪运动:检查衰老过程中的行为下降。行为和运动是衡量个体健康和生理年龄的常用方法[12,14,16,55,57]。对于这些实验,由于复杂的环境条件和数据的大规模,准确测量个体的运动在其整个生命周期中如何变化可能具有挑战性。作为一个具体的例子,我们检查了在微流体装置中培养的野生型个体,使我们能够在整个成年生命周期中识别和跟踪个体(https://doi.org/10.6084/m9.figshare.13681675.v6 补充电影6)。由于每个腔室的大小(直径约1.5毫米),随着蠕虫的生长,运动的范围变得有限,使得常见的指标(例如跟踪分段蠕虫的质心行进的距离)无法清楚地提供对运动随时间下降的见解。因此,为了衡量运动,我们检查了分割个体跨帧像素差异的归一化和(图4A)。随着蠕虫年龄的增长及其运动的减少,整个种群的跨帧差异也会减少(图4B)。然而,尽管这种方法提供了对个体行为下降的有用见解,但在大型数据集中准确获取正确分割的蠕虫可能很困难。这是由于背景对比度,腔室中存在卵以及较老蠕虫的低流动性问题。此外,该过程通常需要大量的手动参数调整(以考虑蠕虫随着年龄的增长的不同大小,随年龄变化的运动水平以及个体之间的差异)和大量的计算时间来分割和提取感兴趣的特征。由于需要手动调整和密集的计算资源,因此很难针对大型行为信息集扩展此方法。
thumbnail 下载:
个人电脑幻灯片
巴新放大图片
断续器原始图像
图 4. 跟踪衰老的行为下降。
A.(上图)蠕虫变老时运动的代表性图像。视频开头的姿势以蓝色显示。视频末尾的姿势以黄色显示。(底部)顶部显示的帧的绝对差异图像。像素变化值是视频中由平均蠕虫大小归一化的绝对差异图像的总和。B.(上图)个体行为随时间推移而下降(通过像素变化)的热图(n = 15)。(底部)从L4到成年期第15天,随时间变化的平均像素变化值。错误绘制为SEM.C.随着蠕虫年龄的增长,使用更快的R-CNN获得的边界框的代表性图像。视频开头的框以蓝色显示。视频末尾的框以黄色显示。两个盒子的 IoU 是阴影的。D.(上图)从L4到成年期第15天(n = 31)的个体运动(1 –IoU)的热图。个体在OD中培养60010. (底部)平均走势随时间推移而下降。误差绘制为SEM.E.在高水平食物中培养的个体的平均运动随时间下降(OD60010个蓝色)和在低水平食物(OD)中培养的个体6002.5 红色)。错误绘制为扫描电镜。外径移动60010 和外径600通过Kolmogorov-Smirnov 2样本检验,2.5显着不同(p = 0.0.03)。
https://doi.org/10.1371/journal.pcbi.1009942.g004
更快的R-CNN可以作为一种快速而准确的替代方案,以衡量人口老龄化导致的行为下降。通过跟踪WiCh模型检测到的蠕虫的边界框位置并测量视频中检测边界框的IoU(在并集上的交集),我们可以获得运动的粗略指标。年轻、高度活跃的蠕虫在帧之间几乎没有边界盒相交,而较老的、移动速度较慢的蠕虫在帧之间的交集水平越来越高(图4C)。为了研究运动如何随时间变化,我们检查了运动评分(1 –IoU),并观察到个体运动的下降,以及人口水平的行为随着年龄的增长而下降(图4D)。我们不仅能够看到与分段帧观察到的运动下降模式相似的运动下降模式,而且我们能够以最小的处理时间(约131毫秒/帧)在更大的范围内做到这一点。
此外,我们想研究这个运动评分是否能辨别出扰动如何影响运动随着年龄的增长而下降。饮食限制(DR)是一种进化保守的扰动,已被证明可以调节衰老[58-60]。我们检查了在恒定DR(OD)下培养的蠕虫的运动评分6002.5)从成年期的第2天开始,并且能够证明与在较高食物水平下培养的蠕虫相比,较低食物水平下的蠕虫在行为下降方面具有统计学显着差异(OD600如图10所示),在先前研究中观察到的趋势(图4E)[14]。此外,为了验证模型在数据集上的性能,我们还验证了从WiCh模型中检测到的边界框与手动注释的分段蠕虫的边界框相当(S8图)。该练习表明,Faster R-CNN定量估计的运动可以用作跟踪和检查老龄化人口中行为下降的快速指标。
讨论
处理大型行为数据集仍然是目前大规模行为学研究面临的主要挑战。作为一个模式生物,C.秀丽隐杆线虫作为大规模研究的主题已经做好了充分的准备,但在复杂的成像条件下,典型的计算机视觉分析管道可能仍然不足,其中动物本身可能会改变大小,与背景形成对比,或者环境中的不均匀性导致启发式模型的失败。在这里,我们已经表明,应用更快的R-CNN对象检测模型来识别,计数和跟踪具有挑战性的环境中的行为是更传统的分析方法的快速灵活的替代方案。我们首先证明了该方法在识别卵和估计产卵率和卵的空间分布方面的适用性。我们还能够证明这种方法可以有效地跟踪从L2阶段到生命结束的动物的运动,提供高水平的行为状态信息以及与动物健康相关的信息。这有效地包括使用C在行为和衰老研究中的许多应用。秀丽隐杆线虫。
与其他传统方法相比,我们发现这种深度学习方法在各种实验条件下的推广性明显更高。它不需要专门的硬件或专用的成像设置,一旦经过训练,我们发现Faster R-CNN模型运行良好,即使在它们没有经过训练的条件下(https://doi.org/10.6084/m9.figshare.13681675.v6 中的补充电影1和3)。相比之下,其他方法(包括其他机器学习图像分类工具,如Ilastik [61])需要额外的手动调整,以应对稍微不同的照明条件,不同大小的动物或不断变化的对比度水平(S9图)。在这里,我们没有使用比典型的年轻L3蠕虫小的动物;这纯粹是由于我们的成像系统的放大倍率限制。正如我们用寻蛋器模型所示,在更高的放大倍率下,当然可以检测到较小的物体,例如鸡蛋。对于小型数据集,注释图像和训练模型的时间投入可能很高,而对于具有成像可变性的大型数据集,高检测精度和消除逐视频或逐帧手动调整代表了显着的收益。对于需要大量人工校正的数据集,随着时间的推移,手动注释的准确性会随着注意力的减弱而不可预测地降低;相比之下,机器学习模型根据训练集的内容可预测地存在偏差。这些优势,加上GPU的高速处理(平均7.6 fps),使深度学习方法成为更传统方法的非常好的替代品。
虽然我们已经证明这种深度学习方法非常具有推广性,但不可避免地会出现这样一些情况,即当成像条件足够不同时,例如,如果动物形态因突变而发生显着变化,则现有的训练模型(, egg - finder 或 WiCh )无法可靠地检测感兴趣的物体。为了使其他实验室能够将这种方法应用于独特的数据集,我们还开发了一种易于使用的基于Web的工具,使用户能够注释,重新训练和评估其数据集(可从 https://github.com/lu-lab/frcnn-all-in-one 访问)。该管道易于使用,没有Python或编码语言经验的天真用户能够独立使用该工具。使用门槛低,不依赖于付费的商业软件(如MATLAB),也不需要下载外部程序。我们还提供了有关如何为没有深度学习方法经验的用户定量验证训练模型的进一步文档。虽然我们发现 Faster R-CNN 架构适合我们的精度和速度要求,但此管道也可用于使用其他对象检测架构训练模型,这些架构可实现更快的推理速度,但准确性较低。将 Faster R-CNN 架构与我们的管道结合使用时,我们发现,在 10-20 张带注释的图像上进行几个小时的训练可提供非常高质量的跟踪结果(https://doi.org/10.6084/m9.figshare.13681675.v6 中的补充影片 7)。这一次的投资可能会为大规模数据集和数据集带来回报,在这些数据集中,成像条件为经典的阈值方法带来了挑战。
我们还表明,即使没有像许多传统方法那样分割图像并提取个体和更复杂的行为表型的姿势,我们仍然能够提取有关动物和卵的位置,大小,线性和角速度以及动物行为状态的信息,这些信息可用于识别具有生物学意义的表型。这些简单方法的计算成本低于分割方法,并且在不需要精确了解姿势的情况下,该方法提供了对相关指标的快速且环境稳健的估计。此外,还有一些相关的深度学习方法可以提供语义分割,例如Mask R-CNN模型,它可以提取姿势信息。此模型的应用是自然的下一步,尽管训练此类模型所需的注释要密集得多。要训练更快的R-CNN,只需要2个点就可以定义一个包含感兴趣对象的框,从而使注释速度更快。这与Mask R-CNN等分割方法相比是有利的,后者需要注释许多点以近似于对象的轮廓。
除了能够快速准确地识别和跟踪动物之外,这种深度学习方法在极端成像条件下的成功表明,这种方法可以用来推动目前在动物行为相关环境中量化动物行为的局限性。研究人员面临着在自然环境中进行测定和从更均匀和受控的环境中提取更多信息的能力之间的权衡。像这样的深度学习方法可能会为我们提供更大的能力,从具有更大行为相关性的更丰富的环境中提取必要的信息。
材料和方法
秀丽隐杆线虫维持
秀丽隐杆线虫菌株在标准条件下维持在20°C,除非另有说明[62]。这项工作中使用的菌株包括N2和QL101[tph-1(n4622)II]。
平板检测
为了防止动物离开显微镜视场(FoV),我们准备了特殊的板。棕榈酸已被证明是行为实验中蠕虫的有效屏障[63]。它通常作为乙醇溶液应用于标准板中,并允许乙醇蒸发掉。然而,由于棕榈酸溶液润湿琼脂,很难以受控的方式沉积。我们使用乙醇灭菌的PDMS片作为负极,以防止乙醇溶液中的10mg / mL棕榈酸润湿5cm NGM板的中心,允许乙醇蒸发至少30分钟,然后用镊子除去PDMS。这些板随后接种了10 ul(发育实验)或5 ul(产卵实验)的OP50。将发育实验中使用的板在室温下孵育约24小时,以形成薄草坪,并在4°C下储存至使用前一小时。对于产卵实验,在将动物转移到盘子上之前,先播种板约2小时。
对于发育测定,将成年动物漂白以获得卵。允许卵孵化,幼虫通过在M9缓冲液中搅动卵过夜来达到L1停止。然后将L1s移液到未播种的NGM板上,并将单个动物移液到制备的种子棕榈酸板上。然后将这些板进行parafilm并在20°C下孵育,直到动物达到L2晚期(电镀后20小时),当每个板被放置在基于Raspberry Pi的成像系统上时。Raspberry Pi成像系统使用带有官方Raspberry Pi触摸屏(Raspberry Pi Foundation)的Raspberry Pi v3 Model B(Raspberry Pi Foundation)和Raspberry Pi Camera Module v2(Raspberry Pi Foundation),无需额外的镜头即可以分钟的时间间隔捕获图像。暗场照明由LED矩阵(Adafruit)提供,LED的中心圆圈为暗,周围的矩阵用红光照亮动物。有关此映像系统的更多详细信息,请访问我们的 GitHub:https://github.com/lu-lab/mi-pi。发育实验持续了44小时,此时蠕虫通常已达到性成熟,并且从成像系统中取出板。
对于产卵测定,将妊娠第1天的成年动物挑到准备好的棕榈酸板上,并使用1.3 MP CMOS相机(Thorlabs DCC1645C)和0.5x耦合器在立体显微镜(徕卡M165 FC)上以1.6倍的速度对板进行2小时和5小时成像。
秀丽隐杆线虫片上培养
将同步L4级野生型动物装入蠕虫室阵列微流体装置中。使用标准软光刻技术由聚二甲基硅氧烷制备微流体器件,并通过高压灭菌进行灭菌。
在E中20°C培养蠕虫。大肠杆菌(HB101)中掺入Pluronic F-127(0.005%),羧苄青霉素(50μg/ ml)和卡那霉素(50μg/ ml),以防止长期培养期间细菌聚集和污染的风险。细菌浓度为OD60010.防止饮食限制对发育过程的任何有害影响。细菌还含有5uM的C22,这会中断蛋壳的形成并导致无活力的后代。在成年期的第2天,蠕虫被转移到25°C并达到所需的食物水平。图4所示的个体保持在OD60010 除非另有说明。图1中的个体在OD下培养60010 和外径6002.5. 我们在所有条件下使用的平均流速约为15μL/min。有关更多详细信息,请参阅之前的工作。[14]
训练更快 R-CNN 网络
对于卵子检测和老化模型,我们使用TensorFlow GPU(v 1.14)来训练模型。对于开发跟踪模型,我们使用TensorFlow CPU(v 1.14)。对于除使用基于Web的管道训练的模型之外的所有模型,我们使用了Tensorflow 1模型动物园(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf1_detection_zoo.md)中预先训练的“Faster_rcnn_inception_v2”模型,并使用我们感兴趣的数据集对其进行了微调。我们在配备英特尔(R) 至强(R) CPU E5-1620 v4 处理器和 NVIDIA Quadro M4000 GPU 的系统上训练模型并处理图像。
对于卵子检测模型,使用1.3 MP CMOS相机(Thorlabs DCC1645C)和0.5x耦合器,在立体显微镜(徕卡M165 FC)上以1.6倍放大倍率在播种板上拍摄混合野生型蠕虫种群的图像。我们使用标签Img Python包手动注释了127个蠕虫和卵的图像。使用粗略的90/10分割将图像随机分成训练集和测试集(114张用于训练的图像,13张测试图像)。
对于发育跟踪模型,按照上述板发育测定的描述拍摄图像。从大量发育成像数据中随机选择1,122张图像(>8种不同的成像设置拍摄的10,000张图像),并使用标签Img Python包进行注释。这个带注释的图像集分为1,008张用于训练的图像和114张用于测试的图像,大约是90/10的分割。训练或测试中使用的图像与图4中评估的图像数据没有重叠。
对于老化的型号,使用130万像素单色CMOS相机(Thorlabs DCC1545M相机)和10倍近焦变焦镜头(Edmund #54-363)以14 fps的采集速率拍摄视频。每个视频的长度为10秒。照明由一组同心红色LED环(超亮LED 60和80mm LED Halo前照灯强调灯)提供,以减少暴露在蠕虫中的蓝光量。在食物OD水平的个体的整个生命周期中均匀采样视频60010 和外径6002.5. 我们使用标签Img Python软件包手动注释了5,176帧蠕虫和卵(如果存在)。使用粗略的90/10分割将图像随机分成训练集和测试集(4658张用于训练的图像,518张测试图像)。
对于使用基于Web的管道训练的模型,我们总共注释了14帧,并使用12帧来训练Tensorflow 2 Faster R-CNN模型,该模型使用COCO图像数据集预先训练了2小时。我们使用生成的模型在 https://doi.org/10.6084/m9.figshare.13681675.v6 中执行补充电影7中的检测。
更快的 R-CNN 模型表征。
对于每个带注释的数据集,我们通过计算精度和召回率以及平均精度来评估模型的性能。精度是误报率的度量,计算方法为 ,其中 TP 是真阳性数,FP 是误报数。召回率是假阴性率的度量,计算方法为 ,其中 FN 是假阴性数。平均精度是一组具有地面实况边界框注释和模型预测的图像的精度召回曲线的整数。为了确定模型的检测是真阳性、假阳性还是假阴性,我们使用检测和地面实数重叠的度量,称为并集交集 (IoU),计算公式为 ,其中 GT 是地面实况的边界框,P 是预测的边界框。IoU ≥ 0.5 被计为真阳性,IoU < 0.5 作为蠕虫检测的误报,在我们的卵子查找器模型中,IoU 阈值降低到 0.3 用于检测卵子。当基本事实注释与模型的检测没有重叠时,将计算假阴性。以这种方式评估所有具有真实值注释的图像后,将使用每个召回级别的最大精度在精度-召回图的点之间进行插值。
使用0.01的分数阈值评估了鸡蛋发现器Faster R-CNN模型的AP,召回率和精度。使用0.5的分数阈值评估了WoP Faster R-CNN模型和老化模型的AP,召回率和精度。使用 MATLAB 收集了图 3 中数据的掩码注释和质心计算,用于数据的地面-真实运动比较。
评估产卵表型。
在转移到单个板后2小时收集单独培养的动物的图像,并在转移后5小时再次收集。对于每张图片,人类策展人手动计算鸡蛋,并将它们识别为在细菌草坪上或室外。Faster R-CNN模型还用于以高于0.01的置信阈值检测每张图像中的卵子,并且手动将卵子识别为在细菌草坪上或外。我们使用这些检测在每个图像上叠加边界框,并手动将每个检测分类为在细菌草坪上或室外。由于蠕虫能够漫游的竞技场比显微镜视野大,因此图像被平铺以确保捕获每个个体产下的所有卵。在图像相互重叠的情况下,从总计数中减去重复计数的卵子。产卵偏好评分计算如下: 。
评估开发过程中的漫游和居住。
为了确定漫游和居住信息可以被提取,我们使用[13]作为基准来建立不同州的分类标准。这是因为我们的数据是以较低的时间频率收集的(在我们的发育数据集中每分钟收集一次图像),而来自[13]的数据是以更高的频率收集的,但可以向下采样以匹配我们数据的采样频率。在这里,我们通过开发使用了他们收集的123只N2动物的整个质心信息,这些信息最初是以3fps收集的。我们遵循斯特恩等人使用的方法。(2017) [13] 用于确定动物是否在任何给定的时间点漫游或居住,以用作基本事实(S7A图)。然后,我们人为地将其数据的时间频率减少到1分钟,以匹配我们开发数据集中数据的时间频率(S7B图)。我们进一步测试了1秒到60分钟之间的采样频率,以可视化线性和角速度如何受到各种采样率的影响(https://doi.org/10.6084/m9.figshare.13681675.v6 中的超视频5)。该视频显示了当采样频率降低时,漫游和居住状态之间逐渐失去分离。但是,在 1 分钟的采样速率下,分离仍然存在。
由于使用60s采样频率时角速度的明显分裂以及该频率下线速度的差异很小,因此我们通过简单地将降低的采样率数据拆分为大于或小于90度/分钟的角速度来确定预测地面真实情况的程度。通过这种简单的方法,我们在>7000万帧的数据集上实现了79%的准确率。相比之下,当我们对60s频率数据应用线性判别分析(LDA)时,我们只能将准确性提高5%,这表明90度/秒的分裂可能与以1分钟间隔收集的质心数据的任何其他线性分割一样好。因此,我们将相同的90度/分钟角速度分割应用于发展数据,以对漫游和居住状态进行分类(https://doi.org/10.6084/m9.figshare.13681675.v6 中的补充视频4)。
评估衰老中的行为下降。
蠕虫的图像通过使用Illastik的手注释进行分割。为了计算蠕虫年龄的像素差异,我们使用img1是视频的初始分段帧,img2是视频的最终分段帧。边界框的 IoU 是使用内置的 MATLAB 函数 bboxOverlapRatio 计算的。1-IoU 指标是通过查看视频第一帧中的边界框与视频最后一帧中的边界框之间的重叠而找到的。
支持信息
Limitations of traditional image processing techniques in developmental monitoring.
Showing 1/10: pcbi.1009942.s001.pdf
Skip to figshare navigation
原始图像Tierpsy Tracker更快的 R-CNN一个BCDE
补充图1。极限塔迪的 onsonal 图像处理技术发育监测A. 技术部在整个开发过程中使用训练有素的WoP Faster R-CNN对动物进行使用 tradi 的模型或常用工具onal segmentaon (Tierpsy Tracker).Tierpsy Tracker 参数被手动调整以检测动物A 中的示例图像,并且未重新调整r 稍后分析同一动物B-E中的mepoints。成功的细分市场a在蠕虫由 Tierpsy 跟踪器是用白色箭头表示,带有非蠕虫节段由红色箭头标记的 on(中间列).蜗杆技术使用 WoP Faster R-CNN 模型的 ons 是有界的由红框 (乐列).所有蠕虫检测显示的 ons 达到了一个骗局丹斯阈值为 0.99。A中的动物被WoP模型和Tierpsy检测到跟踪器,但其他非蠕虫对象是 iden基于操作mized Tierpsy跟踪器段a上。B.与A中的动物相同喵喵。动物是伊登使用 WoP 编辑模型,但不是 iden由Tierpsy Tracker编辑。C.随着对比度的提高,Tierpsy Tracker和WoP模型,但细分市场aon 参数作为操作针对小对比度进行 mized 处理动物也会捡起非蠕虫物体。D.一旦动物变成肉汁id 成人,动物是伊登由两个Tirpsy编辑跟踪器和WoP模型,但鸡蛋和tr细菌草坪中的acks增加了非蜗杆段数a由Tierpsy Tracker提供。E. 伊卢米纳on 更改会增加非蠕虫段的数量aOns by Tierpsy跟踪器,而 WoP 模型是 s将能够进行 idenfy 动物和没有其他非蠕虫对象。
1 / 10
Download
figshare
S1 图 传统图像处理技术在发育监测中的局限性。
A.在整个开发过程中使用经过训练的WoP Faster R-CNN模型或使用传统分割的通用工具(Tierpsy Tracker)检测动物。Tierpsy Tracker 参数已手动调整以检测 A 中示例图像中的动物,而不是重新调整以在 B-E 中稍后的时间点分析同一动物。Tierpsy 跟踪器对蠕虫的成功分割由白色箭头表示,非蠕虫分割由红色箭头(中间列)标记。使用 WoP Faster R-CNN 模型的蠕虫检测以红色框(左列)为界。显示的所有蠕虫检测都达到了置信度阈值 0.99。WoP 模型和 Tierpsy 跟踪器都可以检测到 A 中的动物,但其他非蠕虫对象是根据优化的 Tierpsy 跟踪器分割来识别的。B.与A中的动物在稍后的时间点相同。该动物使用WoP模型进行识别,但未由Tierpsy Tracker识别。C.随着对比度的提高,Tierpsy Tracker和WoP模型都检测到相同的动物,但是针对小型低对比度动物优化的分割参数也会拾取非蠕虫物体。D.一旦动物成为妊娠成虫,Tierpsy Tracker和WoP模型都会识别该动物,但细菌草坪中的卵和轨迹会增加Tirpsy Tracker的非蠕虫分割数量。E. 照明变化增加了Tierpsy Tracker的非蠕虫分割数量,而WoP模型仍然能够识别动物,而不是其他非蠕虫对象。
https://doi.org/10.1371/journal.pcbi.1009942.s001
(英文)
S2 图 传统图像处理技术在人口老龄化中的局限性。
A. 使用传统技术(Tierpsy Tracker)或训练有素的WiCh Faster R-CNN模型(顶行)检测幼虫 通过Tirpsy Tracker成功检测蠕虫。传统技术的参数已针对此特定视频进行了手动调整。(底排)使用与以前相同的参数检测蠕虫(在相同的年龄和环境条件下)。检测错误由红色箭头突出显示。红色方框通过WiCh Faster R-CNN模型显示检测位置。B. 使用传统技术(Tierpsy Tracker)或经过训练的 WiCh Faster R-CNN 模型(顶行)检测旧的、移动缓慢的蠕虫 成功检测蠕虫。传统技术的参数已针对此特定视频进行了手动调整。(底排)使用与以前相同的参数检测蠕虫(在相同的年龄和环境条件下)。错误和错误识别由红色箭头突出显示。红色方框通过WiCh Faster R-CNN模型显示检测位置。
https://doi.org/10.1371/journal.pcbi.1009942.s002
(英文)
S3 图 检测模型的精度召回曲线。
A. 在置信阈值为 0.5 的 WoP 模型中用于蠕虫检测的精度召回率曲线。所有蠕虫(左)、L2-L3 阶段动物(中)和成年动物(右)的精确召回曲线。B. 在卵子查找器模型中,蠕虫检测(左)和卵子检测(右)的精确召回曲线,置信阈值为 0.01。用于确定卵子真阳性检测结果的并集交点是0.3,而蠕虫为0.5。C. WiCh 模型中整体蠕虫检测(左)和卵子检测(右)的精确召回曲线,置信阈值为 0.5(顶行)。蠕虫在寿命不同阶段的精确召回曲线,置信阈值为 0.5(中间行),以及不同食物水平/对比度的精确召回曲线,置信阈值为 0.5(底排)。
https://doi.org/10.1371/journal.pcbi.1009942.s003
(英文)
S4 图 其他数据集中的准确质心跟踪。
A. Stern等人的X质心坐标比较(2017) [13] 以更快的R-CNN WoP模型检测相同的数据。在大约9分钟时,当动物与圆形竞技场的边缘碰撞时,会出现更快的R-CNN检测间隙。B. Stern等人的Y质心坐标比较(2017) [13] 以更快的R-CNN WoP模型检测相同的数据。在大约9分钟时,当动物与圆形竞技场的边缘碰撞时,会出现更快的R-CNN检测间隙。
https://doi.org/10.1371/journal.pcbi.1009942.s004
(英文)
S5 图 使用其他数据集进行精确的线性和角速度分析。
A. S4图中动物随时间变化的分档角速度与动物时间点的比较(数据来自Stern等人。(2017) [13])和更快的R-CNN WoP检测相同数据。数据首先使用10s移动平均窗口平滑角速度(如Stern等人)。(2017) [13]),然后将数据阈值化为低角速度和高角速度。角速度值分别表示每个数据集的低角速度和高角速度数据的平均角速度。B. 两个数据集的线速度与动物的时间和时间点的关系如图4图所示。以相同的方式从两个数据集计算线性速度,然后使用10s的移动平均窗口进行平滑处理,最后通过删除异常值。C. 散点图比较S4图中动物的更快R-CNN WoP质心速度和时间点图到斯特恩等人。(2017) [13] 地面实况速度.一些结构是显而易见的,因为连续的时间点可能具有相关的速度,并且在更快的R-CNN检测的情况下,相关误差。
https://doi.org/10.1371/journal.pcbi.1009942.s005
(英文)
S6 图 开发过程中跟踪的准确性。
A. 使用 WoP Faster R-CNN 对 4A 中描述的动物使用边界框大小随时间的变化。使用超过 10 个时间点(10 分钟)的移动窗口平均值进行平滑处理。如果未检测到动物,则不连接线路。B.WoP Faster R-CNN模型检测到的箱形质心与4A(n = 30个时间点)中动物注释蠕虫形状质心之间距离的密度直方图。C. 4A(n = 25 个时间点)中动物根据注释计算的运动与根据 WoP Faster R-CNN 模型计算的运动之间差值的密度直方图。D.由WoP更快R-CNN模型计算的质心运动与从4A(n = 25)中手动分割的动物计算的质心运动。
https://doi.org/10.1371/journal.pcbi.1009942.s006
(英文)
S7 图 以较低的采样频率对漫游和居住进行准确分类。
A. 线性与角速度概率图,计算方法如 Stern 等人所述。(2017) [13] 来自 Stern 等人的质心数据。(2017) [13] 黑色虚线显示用于对漫游状态与居住状态进行分类的拆分。B.线性与角速度概率图,通过使用Stern等人(2017)[13]当前时间的质心以及过去一分钟和未来一分钟的质心来计算角速度。黑色虚线显示以 90 度/分钟的角度速度划分,用于根据 (A) 中的地面实况分类以 79% 的准确率对漫游/居住状态进行分类。
https://doi.org/10.1371/journal.pcbi.1009942.s007
(英文)
S8 图 使用 WiCh 模型准确检测蠕虫。
WiCh Faster R-CNN 模型检测到的边界框的 IoU 值的直方图与同一帧的手注释、分段蠕虫的边界框的对比图。(n = 2550 帧)。
https://doi.org/10.1371/journal.pcbi.1009942.s008
(英文)
S9 图 现有基于机器学习的细分工具的局限性。
A. 在同一视频中使用 Ilastik 进行分割问题的代表性示例帧。即使在训练至少 50 帧(包括来自同一视频的帧)之后,分类预测和后续分割也会截断蠕虫。蓝色表示背景,黄色标记蠕虫,红色标记蛋对象。B.在类似视频中使用Ilastik进行细分问题的代表性示例帧。所有帧都是在相同的成像条件下拍摄的。(顶部)使用训练模型预测像素分类。该模型之前至少使用50张图像进行了训练。蓝色表示背景,黄色标记蠕虫,红色标记蛋对象。(底部)根据预测对对象进行分割。注意蠕虫的截断和卵的错误分类为蠕虫。
https://doi.org/10.1371/journal.pcbi.1009942.s009
(英文)
S1 表。 发育数据集的峰值和平均速度以及来自Stern等人的数据。(2017) [13].
https://doi.org/10.1371/journal.pcbi.1009942.s010
(文档)
确认
作者感谢Shay Stern,Cori Bargmann,Yuehui Zhao和Patrick McGrath慷慨地提供视频数据,感谢Carys Thompson和Guillaume Aubry测试基于网络的管道,感谢Dhaval Patel提供有关tph-1动物的建议以及QueeLim Ch'ng的菌株。
引用
1.Brown AEX,De Bivort B. Ethology as a Physical Science。Nat Phys [互联网].2018 年 7 月 1 日[引用于 2021 年 1 月 13 日];14(7):653–7.可从: https://doi.org/10.1038/s41567-018-0093-0
查看文章谷歌学术搜索
2.尼波特 N, 本德斯基 A.自然遗传变异如何塑造行为。2020年[引用2021年1月13日];可用日期: pmid:32283949
查看文章PubMed/NCBI谷歌学术搜索
3.Krakauer JW, Ghazanfar AA, Gomez-Marin A, MacIver MA, Poeppel D. Neuroscience Need Behavior: Correcting a Reductionist Bias [Internet].第93卷,神经元。细胞印刷机;2017年[引用2021年1月23日]。第480-90页。可用日期: pmid:28182904
查看文章PubMed/NCBI谷歌学术搜索
4.Anderson DJ,Perona P.迈向计算行为学的科学。第84卷,神经元。细胞印刷机;2014. 第18–31页.pmid:25277452
查看文章PubMed/NCBI谷歌学术搜索
5.Stephens GJ, Johnson-Kerner B, Bialek W, Ryu WS, Green D, Swets J, et al.秀丽隐杆线虫行为的维度和动力学。Sporns O,編輯。PLoS Comput Biol [互联网].2008 年 4 月 25 日 [引用 2017 年 2 月 7 日];4(4):e1000028.可用日期: pmid:18389066
查看文章PubMed/NCBI谷歌学术搜索
6.Brown AEX, Yemini EI, Grundy LJ, Jucikas T, Schafer WR.行为基序词典揭示了影响秀丽隐杆线虫运动的基因簇。Proc Natl Acad Sci U S A [互联网].2013 年 1 月 8 日 [引用于 2017 年 3 月 3 日];110(2):791–6.可用日期: http://www.ncbi.nlm.nih.gov/pubmed/23267063 pmid:23267063
查看文章PubMed/NCBI谷歌学术搜索
7.布朗AEX,戈麦斯-马林A,斯蒂芬斯GJ。秀丽隐杆线虫运动的分层压缩揭示了行为组织的表型差异。J R Soc 接口 [互联网].2016年[引用2017年2月7日];可用时间: pmid:27581484
查看文章PubMed/NCBI谷歌学术搜索
8.Chalfie M, Sulston JE, White JG, Southgate E, Thomson JN, And +, et al.秀丽隐杆线虫中触摸敏感性的神经回路'。第5卷,神经科学杂志。1985.
查看文章谷歌学术搜索
9.格雷JM,希尔JJ,巴格曼CI。秀丽隐杆线虫的导航电路。Proc Natl Acad Sci U S A [互联网].2005 年 3 月 1 日 [引用于 2021 年 5 月 2 日];102(9):3184–91.可从以下网址获得: www.pnas.orgcgidoi10.1073pnas.0409009101 pmid:15689400
查看文章PubMed/NCBI谷歌学术搜索
10.赫奇科克 EM, 拉塞尔 RL.线虫秀丽隐杆线虫中的正常和突变热质。Proc Natl Acad Sci U S A [互联网].1975 [引用于 2021 年 5 月 2 日];72(10):4061–5.可从以下网址获得: /pmc/articles/PMC433138/?report = abstract pmid:1060088
查看文章PubMed/NCBI谷歌学术搜索
11.斯特鲁普 N, 乌尔姆施奈德 BE, 纳什 ZM, 洛佩斯-莫亚多 IF, 阿普费尔德 J, 丰塔纳 W.秀丽隐杆线虫寿命机器。Nat方法 [互联网].2013;10(7):665–70.可用日期: pmid:23666410
查看文章PubMed/NCBI谷歌学术搜索
12.Churgin MA,Jung S-K,Yu C-C,Chen X,Raizen DM,Fang-Yen C.微加工设备中秀丽隐杆线虫的纵向成像显示衰老过程中行为下降的变化。易莱夫 [互联网].2017年5月31日[引用于2017年10月9日];6:e26652.可从: http://elifesciences.org/lookup/doi/10.7554/eLife.26652
查看文章谷歌学术搜索
13.斯特恩S,Kirst C,Bargmann CI。长期行为模式和整个发育过程中的个性的神经调节控制。细胞 [互联网].2017 年 12 月 14 日 [引用于 2018 年 1 月 4 日];171(7):1649–1662.e10.可用时间: 下午 http://www.ncbi.nlm.nih.gov/pubmed/29198526:29198526
查看文章PubMed/NCBI谷歌学术搜索
14.乐康, 詹明, 赵毅, 万军, 帕特尔 DS, 卢华.一个自动化平台,用于在精确的环境控制下监测秀丽隐杆线虫的长期行为和健康跨度。社区生物 [互联网].2020 年 12 月 1 日 [引用于 2021 年 1 月 12 日];3(1):1–13.可用时间: https://www.nature.com/articles/s42003-020-1013-2 pmid:32523044
查看文章PubMed/NCBI谷歌学术搜索
15.Maia Chagas A, Prieto-Godino LL, Arrenberg AB, Baden T, Mathur N, Delfosse K, et al.价值100欧元的实验室:一个3D打印的开源平台,用于荧光显微镜,光遗传学和斑马鱼,果蝇和秀丽隐杆线虫行为期间的精确温度控制。PLOS Biol [互联网].2017 年 7 月 18 日 [引用于 2017 年 7 月 25 日];15(7):e2002702.可从: http://dx.plos.org/10.1371/journal.pbio.2002702
查看文章谷歌学术搜索
16.Zhang WB, Sinha DB, Pittman WE, Hvatum E, Stroustrup N, Pincus Z. Isogenic C. elegans中的延伸暮光导致寿命和健康之间的不成比例的缩放。细胞系统[互联网].2016;3(4):333–45.可用时间: pmid:27720632
查看文章PubMed/NCBI谷歌学术搜索
17.钟坤, 詹明, 斯里尼瓦桑 J, 斯滕伯格 PW, 龚娥, 施罗德FC, 等.用于基于全生物体行为的化学筛选的微流体室阵列。实验室芯片。2011 11 月 7;11(21):3689–97.下午:21935539
查看文章PubMed/NCBI谷歌学术搜索
18.Javer A, Currie M, Lee CW, Hokanson J, Li K, Martineau CN, et al.用于分析和共享蠕虫行为数据的开源平台。第15卷,自然方法。自然出版集团;2018. 第645–6页.pmid:30171234
查看文章PubMed/NCBI谷歌学术搜索
19.Swierczek NA, Giles AC, Rankin CH, Kerr RA.秀丽隐杆线虫的高通量行为分析。Nat 方法。2011年 7月;8(7):592–602.pmid:21642964
查看文章PubMed/NCBI谷歌学术搜索
20.Hebert L, Ahamed T, Costa AC, O'Shaughnessy L, Stephens GJ.WormPose:用于秀丽隐杆线虫姿势估计的图像合成和卷积网络。PLOS Comput Biol [互联网].2021 年 4 月 1 日 [引用于 2021 年 7 月 20 日];17(4):e1008914.可用网址: https://journals.plos.org/ploscompbiol/article?id = pmid:33905413
查看文章PubMed/NCBI谷歌学术搜索
21.Mathis A, Mamidanna P, Cury KM, Abe T, Murthy VN, Mathis MW, et al.DeepLabCut:通过深度学习对用户定义的身体部位进行无标记姿势估计。Nat Neurosci 2018 219 [互联网].2018 年 8 月 20 日 [引用于 2021 年 11 月 5 日];21(9):1281–9.可用时间: 下午 https://www.nature.com/articles/s41593-018-0209-y:30127430
查看文章PubMed/NCBI谷歌学术搜索
22.Pereira TD, Aldarondo DE, Willmore L, Kislin M, Wang SS-H, Murthy M, et al.使用深度神经网络进行快速动物姿势估计。Nat方法 [互联网].2019;16(1):117–25.可用日期: pmid:30573820
查看文章PubMed/NCBI谷歌学术搜索
23.Graving JM, Chae D, Naik H, Li L, Koger B, Costelloe BR, et al.Deepposekit,一个软件工具包,用于使用深度学习进行快速而强大的动物姿势估计。埃利夫。2019 10月 1;8.pmid:31570119
查看文章PubMed/NCBI谷歌学术搜索
24.Ren S, He K, Girshick R, Sun J. Faster R-CNN: Towards Real-Object Detection with Region Proposal Networks[互联网].2015年[引用2020年10月19日]。可从: https://github.com/
25.黄军, 拉托德五世, 孙C, 朱明, 科拉提卡拉A, 法蒂A, 等.现代卷积物体探测器的速度/精度权衡。在:论文集 - 第30届IEEE计算机视觉和模式识别会议,CVPR 2017。电气和电子工程师协会;2017. p. 3296–305.
26.Hung J, Ravel D, Lopes SCP, Rangel G, Nery OA, Malleret B, et al. Applied Faster R-CNN 用于疟疾图像的物体检测.2018;可从: http://arxiv.org/abs/1804.09548
View ArticleGoogle Scholar
27.Andrew W, Greatwood C, Burghardt T. Visual Localisation and Individual Identification of Holstein Friesian Cattle via Deep Learning. Proc—2017 IEEE Int Conf Comput Vis Work ICCVW 2017. 2017 Jul 1;2018-January:2850–9.
View ArticleGoogle Scholar
28.Manning T, Somarriba M, Roehe R, Turner S, Wang H, Zheng H, et al. 动物行为研究的自动对象跟踪.Proc—2019 IEEE Int Conf Bioinforma Biomed BIBM 2019.2019 Nov 1;1876–83.
查看文章谷歌学术搜索
29.Schneider S, Taylor GW, Kremer SC. Ecological Camera Trap Data的深度学习对象检测方法。[引用2021年11月5日];可从: https://dataverse.scholarsportal.info/dataset.xhtml?persistentId
查看文章谷歌学术搜索
30.Perni M, Challa PK, Kirkegaard JB, Limbocker R, Koopman M, Hardenberg MC, et al.大规模平行的秀丽隐杆线虫跟踪为表型发现提供了多维指纹。J 神经科学方法[互联网].2018;306:57–67.可用日期: pmid:29452179
查看文章PubMed/NCBI谷歌学术搜索
31.Mathew MD,Mathew ND,Ebert PR. WormScan:一种用于秀丽隐杆线虫的高通量表型分析技术。Lehner B,編輯。PLoS One [互联网].2012 年 3 月 23 日 [引用于 2021 年 1 月 27 日];7(3):e33483.可用日期: pmid:22457766
查看文章PubMed/NCBI谷歌学术搜索
32.白金汉SD,鹧鸪FA,萨特尔DB。秀丽隐杆线虫和寄生线虫的自动化、高通量、运动性分析:在寻求新驱虫药中的应用。第4卷,国际寄生虫学杂志:药物和耐药性。爱思唯尔有限公司;2014. 第226–32页.pmid:25516833
查看文章PubMed/NCBI谷歌学术搜索
33.郑明, 戈列连科娃 O, 杨娟, 冯志.基于液相秀丽隐杆线虫的行为分析系统可识别线虫帕金森病模型中的运动活动损失。J 神经科学方法。2012 3 月 15;204(2):234–7.pmid:22108336
查看文章PubMed/NCBI谷歌学术搜索
34.Riddle DL, Blumenthal T, Meyer BJ et al., editor.第一节,导言。标题。在: 秀丽隐杆线虫 II [互联网].第2版. 冷泉港(纽约):冷泉港实验室出版社;1997. 可从: https://www.ncbi.nlm.nih.gov/books/NBK20121/
35.林泰, 梅尔 M, 贝里 S, 海斯 J, 佩罗娜 P, 拉马南 D, 等.Microsoft COCO:上下文中的常见对象。在:计算机科学讲义(包括人工智能讲义和生物信息学讲义子系列)[互联网]。施普林格出版社;2014年[引用2021年1月12日]。第740-55页。可从: https://arxiv.org/abs/1405.0312v3
36.Abadi M, Agarwal A, Barham P, Brevdo E, Chen Z, Citro C, et al. TensorFlow: Large-scale Machine Learning on hetermodeous systems [Internet].2015. 可从: tensorflow.org
查看文章谷歌学术搜索
37.Trent C, Tsung N, Horvitz HR. 线虫秀丽隐杆线虫的产卵缺陷突变体。遗传学。1983;104(4).下午:11813735
查看文章PubMed/NCBI谷歌学术搜索
38.杜沃F,费利克斯MA。多效性在秀丽隐杆线虫隐匿性发育变异的进化中的作用。PLoS Biol. 2012 1月;10(1).pmid:22235190
查看文章PubMed/NCBI谷歌学术搜索
39.赵燕, 龙磊, 徐伟, 坎贝尔射频, 大EE, 格林JS, 等.社会喂养行为的改变不足以使秀丽隐杆线虫N2参考菌株的适应性增加。埃利夫。2018 10月 1;7.
查看文章谷歌学术搜索
40.Anholt RRH,O'Grady P,Wolfner MF,Harbison ST.生殖行为的进化。遗传学 [互联网].2020 年 1 月 1 日 [引用于 2021 年 1 月 27 日];214(1):49–73.可用日期: pmid:31907301
查看文章PubMed/NCBI谷歌学术搜索
41.Ségalat L, Elkes DA, Kaplan JM.Go在秀丽隐杆线虫中通过Go调节血清素控制的行为。科学 (80-) [互联网].1995 [引用于 2021 Jan 26];267(5204):1648–51.可用时间: https://pubmed.ncbi.nlm.nih.gov/7886454/ pmid:7886454
查看文章PubMed/NCBI谷歌学术搜索
42.Mendel JE, Korswagen HC, Liu KS, Hajdu-Cronin YM, Simon MI, Plasterk RHA, et al.蛋白质Go参与秀丽隐杆线虫行为的多个方面。科学 (80-) [互联网].1995 [引用于 2021 Jan 26];267(5204):1652–5.可用时间: https://pubmed.ncbi.nlm.nih.gov/7886455/ pmid:7886455
查看文章PubMed/NCBI谷歌学术搜索
43.陈永昌, 赛义德赛亚姆多斯特 MR, 林斯塔德·微生物代谢物与内源性血清素协同作用,触发秀丽隐杆线虫的生殖行为。Proc Natl Acad Sci U S A [互联网].2020 年 12 月 1 日 [引用于 2021 年 1 月 12 日];117(48):30589–98.可从: https://www.pnas.org/content/117/48/30589
查看文章谷歌学术搜索
44.Jung S-K,Aleman-Meza B,Riepe C,Zhong W. QuantWorm:秀丽隐杆线虫表型测定的综合软件包。亨德里克斯M,编辑。PLoS One [互联网].2014 年 1 月 8 日 [引用于 2021 年 1 月 26 日];9(1):e84830.可用日期: pmid:24416295
查看文章PubMed/NCBI谷歌学术搜索
45.耿伟,科斯曼P,棕榈M,舍费尔WR。秀丽隐杆线虫产卵检测和使用图像分析的行为研究。欧亚知识产权应用技术应用[互联网].2005 年 8 月 11 日 [引用于 2021 年 1 月 26 日];2005(14):2229–40.可从: https://asp-eurasipjournals.springeropen.com/articles/10.1155/ASP.2005.2229
查看文章谷歌学术搜索
46.W?hlby C, Kamentsky L, Liu Z, Riklin-Raviv T, Conery A.用于高通量秀丽隐杆线虫测定的图像分析工具箱。Nat 方法。2012;9.pmid:22522656
查看文章PubMed/NCBI谷歌学术搜索
47.Atakan HB, Ayhan F, Gijs MAM.PDMS过滤结构,用于大小依赖性幼虫分选和片上卵提取:秀丽隐杆线虫。实验室芯片[互联网].2020 年 1 月 7 日 [引用于 2021 年 1 月 26 日];20(1):155–67.可用时间: https://pubs.rsc.org/en/content/articlehtml/2020/lc/c9lc00949c pmid:31793616
查看文章PubMed/NCBI谷歌学术搜索
48.Sofela S, Sahloul S, Rafeie M, Kwon T, Han J, Warkiani ME, et al.用于同步的高通量卵分拣:秀丽隐杆线虫在微流控螺旋芯片中。实验室芯片[互联网].2018 年 2 月 21 日 [引用于 2021 年 1 月 26 日];18(4):679–87.可从: https://pubs.rsc.org/en/content/articlehtml/2018/lc/c7lc00998d
查看文章谷歌学术搜索
49.舍费尔产卵。WormBook:秀丽隐杆线虫生物学的在线评论。2005. 第1-7页.pmid:18050396
查看文章PubMed/NCBI谷歌学术搜索
50.Waggoner LE, Zhou GT, Schafer RW, Schafer WR.通过秀丽隐杆线虫中的血清素控制替代行为状态。神经元 [互联网].1998 年 7 月 1 日[引用于 2021 年 1 月 26 日];21(1):203–14.可用时间: http://www.cell.com/article/S0896627300805279/fulltext pmid:9697864
查看文章PubMed/NCBI谷歌学术搜索
51.Collins KM, Bode A, Fernandez RW, Tanis JE, Brewer JC, Creamer MS, et al.秀丽隐杆线虫产卵行为回路的活动由竞争性激活和反馈抑制控制。埃利夫。2016年11月16日;5(2016年11月).
查看文章谷歌学术搜索
52.Fenk LA,De Bono M.环境CO2通过调节嗅觉神经元来抑制秀丽隐杆线虫产卵,并引起神经活动的广泛变化。Proc Natl Acad Sci U S A [互联网].2015 7 月 7 日 [引用于 2021 年 1 月 26 日];112(27):E3525–34.可用时间: www.pnas.org/cgi/doi/10.1073/pnas.1423808112 pmid:26100886
查看文章PubMed/NCBI谷歌学术搜索
53.Flavell SW, Pokala N, Macosko EZ, Albrecht DR, Larsch J, Bargmann CI.血清素和神经肽PDF在秀丽隐杆线虫中启动和扩展相反的行为状态。细胞。2013 8 月 29;154(5):1023–35.pmid:23972393
查看文章PubMed/NCBI谷歌学术搜索
54.恩切夫 E V., 帕特尔 DS, 詹 M, 斯蒂尔 AJ, 卢 H, 郑 QL.一种基于基因表达的食物丰度的神经代码,用于调节寿命。埃利夫。2015年5月12日,4月(5月)。pmid:25962853
查看文章PubMed/NCBI谷歌学术搜索
55.Hahm J, Kim S, Diloreto R, Shi C, Lee S V, Murphy CT, et al.秀丽隐杆线虫的最大速度与健康跨度相关,并在具有胰岛素受体突变的蠕虫中维持。纳特·科伦 [互联网].2015;6:1–7.可用日期: pmid:26586186
查看文章PubMed/NCBI谷歌学术搜索
56.Ben Arous J,Laffont S,Chatenay D.秀丽隐杆线虫中与食物相关的双态行为的分子和感官基础。布雷齐娜五世,编辑。PLoS One [互联网].2009 年 10 月 23 日 [引用于 2021 年 1 月 12 日];4(10):e7584.可从: https://dx.plos.org/10.1371/journal.pone.0007584
查看文章谷歌学术搜索
57.Golden TR,Hubbard A,Dando C,Herren MA,Melov S.年龄相关行为在秀丽隐杆线虫中具有不同的转录特征。老化细胞[互联网].2008 年 12 月 1 日 [引用于 2020 年 8 月 28 日];7(6):850–65.可用日期: http://doi.wiley.com/10.1111/j.1474-9726.2008.00433.x pmid:18778409
查看文章PubMed/NCBI谷歌学术搜索
58.Colman RJ, Anderson RM, Johnson SC, Kastman EK, Kosmatka KJ, Beasley TM, et al.热量限制可延缓恒河猴的发病和死亡。科学 (80-).2009 7 月 10;325(5937):201–4.下午:19590001
查看文章PubMed/NCBI谷歌学术搜索
59.Mair W,Goymer P,Pletcher SD,Partridge L.果蝇饮食限制和死亡的人口统计学。科学 (80-).2003 9 月 19;301(5640):1731–3.pmid:14500985
查看文章PubMed/NCBI谷歌学术搜索
60.Greer EL,Brunet A.不同的饮食限制方案通过秀丽隐杆线虫的独立和重叠的遗传途径延长寿命。老化细胞[互联网].2009年[引用2018年1月5日];8:113–27.可用时间: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2680339/pdf/ace0008-0113.pdf pmid:19239417
查看文章PubMed/NCBI谷歌学术搜索
61.Berg S, Kutra D, Kroeger T, Straehle CN, Kausler BX, Haubold C, et al. ilastik: interactive machine learning for (bio)image analysis.Nat方法 [互联网].2019 年 12 月 1 日 [引用于 2021 年 5 月 4 日];16(12):1226–32.可用日期: pmid:31570887
查看文章PubMed/NCBI谷歌学术搜索
62.Stiernagle T. 秀丽隐杆线虫的维持。WormBook:秀丽隐杆线虫生物学的在线评论。2006. 第1-11页.下午:18050451
查看文章PubMed/NCBI谷歌学术搜索
63.弗莱彻M,金DH。来自感觉神经元的年龄依赖性神经内分泌信号传导调节饮食限制对秀丽隐杆线虫长寿的影响。阿什拉菲·K,编辑。PLOS Genet [互联网].2017 年 1 月 20 日 [引用于 2020 年 2 月 11 日];13(1):e1006544.可从: https://dx.plos.org/10.1371/journal.pgen.1006544
查看文章谷歌学术搜索