首页 > 靠谱的滚球平台 >  业内事态

荧光标记再见,AI不用染色也能看见

浏览次数:      2021年04月28日

模型可仅通过光学显微镜图像就预测出细胞结构的位置,而无需具有毒性的荧光标记物。


    一直以来,来自华盛顿西雅图艾伦细胞科学研究所的定量细胞生物学家、副总监Susanne Rafelski和她同事都有一个看起来很简单的目标:“我们希望能够标记细胞中多种不同的内部结构,而且是在活细胞里进行3D的结构标记。”


    这一目标通常依赖于荧光显微镜来实现,但问题是可用的染料数量有限,不足以完成对所有种类的细胞结构进行标记。同时,荧光染料和试剂不仅昂贵、操作复杂,着色过程也对活细胞有害。当光激活这些荧光物质时,成像细胞的异常活跃会损害细胞。“无论哪个角度来说,荧光显微都是耗费很大的方式”,同在西雅图艾伦研究所的脑科学中心显微学家Forrest Collman说。当Collman和同事尝试使用3种不同颜色来拍摄3D延时视频时,结果令人十分震惊。Collman回忆道:“你就眼睁睁的看着这些细胞在你面前凋零。

image.png

插图:Project Twin

    而另一方面,基于投射白光进行成像的亮视野显微镜并不依赖标记物,从而避免了荧光显微镜存在的一系列问题。但这种显微镜对比度较低,大多数细胞结构无法看出。Rafelski团队需要结合两种成像方式的优势,科学家们不禁在想,人工智能是否可以在亮视野显微镜的基础上,通过一种类似“虚拟染色”的过程,预测出细胞通过荧光标记出结构形态呢?2017年,Rafelski当时的同事,机器学习科学家Gregory Johnson提出了这么个解决方案,他想利用一种称为深度学习的AI模型,从亮视野显微镜的非染色图像中识别出肉眼难以观测的细胞结构。


    “天啊,这居然能成,”Rafelski离开了几个月,回来工作时Johnson告诉她自己搞定了。在非荧光标记的细胞图像上应用深度学习算法,艾伦研究所的团队在一段3D视频中呈现了细胞核内的DNA和精细结构,以及细胞膜和线粒体[1]


    “这些模型可以‘看’到人类看不到的结构”,英国邓迪大学的计量细胞生物学家Jason Swedlow说。他说,我们的眼睛并不适应捕捉细微的结构,或诸如光学显微镜下的灰度模式,我们不是这么演化的,“你的眼睛是为了发现老虎狮子和树之类的东西


    在过去几年里,AI领域的科学家们设计出了多种系统来抽取这些模式。模型利用亮视场显微数据和与之精确对应的荧光标记数据来训练模型,但这些模型在处理数据的维度上略微不同,一些用作2D图像,另一些用于3D;一些用于近似细胞结构、一些则能生成足以乱真的显微图像。


    澳大利亚布里斯班转化研究院的显微设备主管Mark Scott说:“这代表了目前所能达到的最前沿水平。”而现在需要生物学家与AI程序员合作,测试和改进这些技术在真实环境中的应用能力。


高速发展的领域

    加州大学神经科学家Steven Finkbeiner,以及同在旧金山的格莱斯顿研究所,利用机器人显微镜对细胞进行了长达一年的追踪。在10年代前期,他的团队每天已经能够积累TB级的数据。这一研究吸引了谷歌研究者的注意,并抛出了合作的橄榄枝。Finkbeiner建议可以利用深度学习来从图像中寻找人看不见的细胞结构特征。


    深度学习利用计算机内部的节点进行层次堆叠模拟人脑内部的神经连接过程。首先节点间的链接权重被随机初始化,所以计算机只是在猜;随着训练过程的深入计算机可以逐渐调节这些权重或参数,直到越来越对。


    Finkbeiner的团队曾训练了一个可以从2D图像中识别出神经元的模型,然后是挑出细胞核并判断细胞是否还有活性[2]。Finkbeiner说:“这一项目的主要意义在于向科学家表明,图像数据里包含着的信息,可能比他们以为的多得多。”团队将这一技术称为“硅标记”in silico labelling)


    但这一方法无法识别出运动神经元,可能由于未标记细胞中没有任何信息可以表示出运动神经元的独特性质。Collman表示,这一技术只能在有AI可识别的视觉线索时有效,例如膜与周围结构具有不同的折射率,从而产生了不同的对比度信息,使得这一结构可以被AI预测。


    Collman,Johnson和他们在艾伦研究所的同事们,利用一种不同的神经网络来解决Rafelski提出的问题,在一种名为U-Net的网络结构上构建了系统,U-Net是被研发用于处理生物图像的。与Finkbeiner等人的方法不同,艾伦研究所的模型使用3D显微图像。一些科学家日常会用到这一模型,例如在染色质组织学中识别出细胞核标记。


    在伊利诺伊大学香槟分校,物理学家Gabriel Popescu同样利用深度学习,寻求一个基础显微问题的答案:一个细胞是死是活?这一工作可能比听起来要困难许多,因为测试细胞活性需要借助毒性化学物质,这种矛盾的过程就像用刀捅开病人的动脉来观察是否活着一样。


    Popescu和同事将这一研究称为PICS:基于计算特性的相位成像(phase imaging with computational specificity)Popescu使用这一技术在活细胞中识别细胞质和细胞核,并计算其质量随时间的变化[3]。 他说,这些标记准确地表明了细胞的生长和活力。


    PICS系统包含基于U-Net的软件系统和显微镜硬件,整套系统无缝集成,而无需拍摄图像后训练机器进行处理。当用户拍摄好白光图像后,模型仅仅需要65毫秒就能预测出细胞对应的荧光标记结构。


    其他的研究团队还使用不同种类的机器学习算法。例如,华盛顿的美国天主教大学的一个团队利用叫GAN的神经网络,从相衬光学显微镜识别图像中识别细胞核[4]GAN是一种生成对抗网络,包含两个不同的模型,其中生成器用于预测出荧光标记图像,而判别器则用于判定生成的图像是否是赝品。为了躲过判别器的鉴别,生成器需要不断改进以生成尽量真实准确的结果,如果判别器在一半情况下被骗过,生成器就是在进行可信的预测。这一项目的工程师Lin-Ching Chang表示:“甚至人类也无法区分生成样本的真假了。”

药物发现

    荧光标记预测技术也在进入制药行业。瑞典哥德堡阿斯利康的药理学家Alan Sabirsh一直致力于研究脂肪细胞在疾病和药物代谢中的作用。Sabirsh和阿斯利康联合了瑞典国家人工智能应用中心举办了一场脂肪细胞成像挑战赛,要求参赛者从未标记显微图中识别出细胞核、细胞质和脂肪滴。最终5000美元的奖金被Ankit Gupta、 Håkan Wieslander团队获取,他们是瑞典乌普萨拉大学研究图像处理技术的两名博士生。


    与Chang和同事一样,这一团队选择利用GAN来识别脂肪滴。针对细胞核则使用了另一种方法LUPT(learning using privileged information,利用特权信息的学习),为机器的学习过程带来额外的帮助。该团队使用了进一步的图像处理技术,来识别标准训练图像对中的细胞核。一旦模型训练完成,它就可以仅仅基于光学显微镜图像来预测细胞核了[5]


    Gupta说,虽然生成的图像并不完美,真实的荧光染色可以比模型预测结果提供更多细胞核与细胞质的细节但对于Sabirsh来说已经足够了,他已经开始将这些代码应用于机器人显微镜的实验中,并期望开发出新的疗法。


在多个技术原型验证后,这一技术已经度过了蹒跚学步阶段,更多的研究者开始尝试这一技术。Swedlow说:“我们正在学习行走,以及行走的意义所在。”


    例如,我们需要明确这一方法在白光成像中何时是有效的、而何时又应该避免使用这一技术。麻省理工大学博德学院成像平台高级总监Anne Carpenter说,尝试分割细胞内部细胞器和结构也许是一个很好的应用,因为错误并不会显著影响到下游任务的结果。不过,她对预测实验结果抱有审慎的态度,因为机器可能只在可控条件下,依赖一种结构预测另一种。“但在生物学中,我们常常寻找的就是例外。”Carpenter说。


Popescu说,目前来说,至少科学家们已经能够利用标准的荧光染色来确认模型的关键预测是否正确。新墨西哥州立大学电子工程师Laura Boucheron补充说,最好寻求一位相关领域的专家进行合作,“运行并良好使用这些模型,需要大量重要的计算机专业知识


    虽然一些模型只使用了少量的图像进行训练,但Boucheron认为数据量越大越好。比利时根特大学VIB炎症研究中心的计算生物学家Yvan Saeys认为,几百甚至上千的数据通常是必须的,如果你需要模型在多种细胞类型上或者来自不同显微镜设置下能有效运行,需要在训练数据中涵盖足够多样性的图像。


    但Boucheron提醒,大体量的训练需要拥有多个图形处理单元超级计算机,训练上数周时间。但一旦模型训练完成,预测模型就可以在笔记本甚至手机端运行。


    对于很多研究者而言,如果未来再也无需承受细胞染色的繁杂之苦,这样一次性的投资是值得的。Finkbeiner说:“如果你可以拍摄未染色的细胞图像,并且拥有已经训练好的预测模型,那就意味着你基本上能免花费获得所有信息了。”

参考文献:

1. Ounkomol, C., Seshamani, S., Maleckar, M. M., Collman, F. & Johnson, G. R. Nature Meth. 15, 917–920 (2018). 

2. Christiansen, E. M. et al. Cell 173, 792–803 (2018). 

3. Kandel, M. E. et al. Nature Commun. 11, 6256 (2020). 

4. Nguyen, T. C. et al. J. Biomed. Opt. 25, 096009 (2020).

5. Wieslander, H., Gupta, A., Bergman, E., Hallström, E. & Harrison, P. J. Preprint at bioRxiv http://doi.org/10.1101/2021.01.18.427121 (2021).


原文以AI spots cell structures that humans can’t标题发表在2021年3月30日的《靠谱的外围平台》的技术特写版块上 原文链接 http://mp.weixin.qq.com/s/YIr19hw-38skvWNpoY-bPg