谷歌《Cell》论文:光学显微镜+深度学习=荧光显微镜

雷锋网 AI 科技评论按:在生物和医学领域,研究员们常运用显微镜来观察肉眼无法获得的细胞细节信息。虽然运用透射光显微镜(对生物样本单侧照射生成像),观察起来相对简单且活体培养样本具有良好耐受性,但是其生成的图像难以正确评估。荧光显微技术中会用荧光分子染色需要观察的目标(比如细胞核),这种做法能简化分析过程,但其仍需要复杂的样品制备。随着包括图像质量自动评估算法和协助病理医师诊断癌组织在内的机器学习技术在显微镜领域的应用越来越广泛,谷歌因此考虑是否可以结合透射光显微镜和荧光显微镜这两种显微镜技术来开发一种深度学习系统,从而最大限度降低两者的不足之处。

4 月 12 日,谷歌发表了结合透射光显微镜和荧光显微镜这两种显微镜技术,并利用深度学习来对显微镜细胞图像进行分色荧光标记的研究博文,雷锋网 AI 科技评论将其研究内容编译如下:

4 月 12 日出版的《Cell》 杂志上刊登了谷歌的论文《In Silico Labeling: Predicting Fluorescent Labels in Unlabeled Images》,其中展示了深层神经网络能够通过透视光图像来预测其荧光图像,无需修改细胞就可以生成有标签的、有用的图像,这将使得对未修改的细胞做长期追踪分析、在细胞治疗中最大程度减少侵入性的细胞检查、以及同时运用大量标签进行分析成为可能。对于这项研究,谷歌开源了网络设计、完整的训练数据和测试数据、经过训练后的模型检查点以及示例代码。

研究背景 

透射光显微镜技术虽然易用,但是其也会生成难以分辨的图像。例如,下图就是一张相衬显微镜得到的图像,其中像素的颜色深度表示了光线穿过样本时相位变化的程度。

谷歌《Cell》论文:光学显微镜+深度学习=荧光显微镜

上面图像均为自多能干细胞的人体运动神经元培养物在透射光显微镜下(运用相位对比法)观察到图像。示例图 1:示的可能为神经元细胞。示例图 2:观察图像的缺陷致掩盖了其下方的细胞。示例图 3:神经突图像。示例图 4:可能为死亡细胞。上图比例尺:40μm。上述图像以及数字均来自斯通研究所的 Finkbeiner 实验室。

在上图中,很难分辨出示例图 1 的细胞群中的单元数量,或者示例图 4 中细胞的位置和状态(提示:上部中间位置有一个几乎不可见的扁平细胞)。同时也很难始终让精细结构保持在对焦范围内,比如示例图 3 中的神经树突。

我们可以通过采集不同 z 高度的图像来获取透射光显微镜下的更多信息:一组关于(x,y)位置的图像,控制其中的 z(距离摄像机的距离)系统地变化。这导致细胞的不同部分对焦或者脱焦,从而提供了样本细胞的 3D 结构信息。不幸的是,通常只有有经验的分析人员才能看懂这不同高度的图像,如何分析这样的不同高度图像也是自动化分析过程的巨大挑战。下面即为一个 z 堆栈示例图。

谷歌《Cell》论文:光学显微镜+深度学习=荧光显微镜

相同细胞的相位对比 z 堆栈。需要注意,当焦点转移时细胞外观将发生如何变化。我们现在可以观察到示例图 1 右下角的模糊形状是一个单一的椭圆形单元,示例图 4 最有的细胞要比最上面的细胞高,这可能表明它已经经历了细胞程序性死亡。

相比上图的透视光图像,下方用荧光显微镜观察到的图像就容易分析多了,因为研究人员将想观察的内容容用荧光进行了精心标记。例如,绝大多数人类细胞只有一个细胞核,因此可以进行细胞核标记(如下图的蓝色标记),这也就使利用简单工具统计图像中的细胞数量成为可能。

谷歌《Cell》论文:光学显微镜+深度学习=荧光显微镜

上面是同一细胞在荧光显微镜下的图像。蓝色荧光标记 DNA 以突出细胞核。绿色荧光标记仅存在树突中的一种神经子结构的蛋白质。红色荧光标记仅存在轴突中的另一种神经子结构的蛋白质。分色荧光标记帮助研究人员可以更加容易地了解样本。例如,通过例图 1 中的绿色和红光荧光标记,可以确认这是一个神经群集。例图 3 中的红色荧光标签代表的是轴突而非树突。例图 4 中左上角蓝色的荧光标记揭示了,之前通过光透视显微镜难以观察到的细胞核,而左侧的细胞缺乏蓝色荧光标记,因此它为无 DNA 细胞碎片。

同时,荧光显微镜也存在明显的硬伤。首先,样本的制备和对其进行荧光标记本身就带来了复杂性和可变性。其次,当样本中存在许多且不同的荧光标记时,光谱的重叠会导致难以分辨哪种颜色对应哪种标记。所以通常会限制研究人员在同一样本中同时使用三或四个标记,以免造成混淆。第三,荧光标记可能对样本细胞产生毒性,有时还会致其死亡,这个缺陷也使荧光标记在需要长时间观察细胞的纵向研究中难以得到。

与深度学习同行,看到更多可能

 在谷歌的这篇论文中,作者们展示了深度神经网络可以根据透射光 z 堆栈来预测其分色荧光图像。为此,我们创建了投射光 z 堆栈与分色荧光图像匹配的数据集,并训练神经网络根据投射光 z 堆栈来预测其分色荧光图像。下面就是这一训练过程的图示介绍。

谷歌《Cell》论文:光学显微镜+深度学习=荧光显微镜

这是训练系统的概述:(A)为训练实例的数据集:同一样本画面里 z 堆栈的透射光图像和荧光标记图像的像素匹配集。使用不同颜色荧光进行标记产生的荧光标记图像,随着不同训练实例的切换而改变颜色变化;其中的类似棋盘图像因未给定实例而无荧光标记。未经训练的深度网络(B)在对数据 A 进行预测,训练之后再对数据 A 进行预测就变成了(C)。数据 A 的投射光 z 堆栈图像(D)。(E) :利用训练后的深度神经,根据 A 数据的每一个新图像像素信息(D)来预测 A 数据的荧光标记(C)。

该研究过程中,谷歌由 Inception 的模块化设计获得灵感,开发了一种由三种基本构建块组成的新型神经网络:第一种,保持比例的模块配置,它不会改变特征的空间尺度大小;第二种,缩小比例的模块配置,它会把空间比例缩放为 2 倍;第三种,放大比例,它会把空间比例缩放为一半。这使得将网络架构设计难题设计成两个更为简单的问题:构建块(宏架构)的安排部分和构建块本身(微架构)的设计部分。谷歌使用本文前面讨论的设计原则解决掉了第一个问题,第二个问题则是利用 Google Hypertune 的自动搜索来实现。

为了保证本研究方法合理,谷歌使用了来自 Alphabet 实验室以及两个外部合作伙伴的数据对模型进行了验证:Gladstone 研究所 Steve Finkbeiner 实验室和哈佛 Rubin 实验室。这些数据涵盖了三种透射光成像模式(明场,相差和微分干涉对比)和三种培养类型(来自诱导多能干细胞的人体运动神经元,大鼠皮质培养物和人体乳腺癌细胞)。谷歌发现,该方法可以准确预测包括细胞核,细胞类型(如神经)和细胞状态(如细胞死亡)在内的几种荧光标记。下图显示了该模型在将神经元示例的透射光输入后,得出的分色荧光标记预测结果。

输入神经元示例的透射光-输出荧光标记预测结果

谷歌《Cell》论文:光学显微镜+深度学习=荧光显微镜

示例图显示了投射光和荧光标记成像的相同细胞图像,以及谷歌模型对其预测生成荧光标记。尽管输入的图像存在伪像(记号 2 图像),但是模型依旧预测生成了正确的荧光标记。(记号 3 图像)根据细胞之间的最近距离推测出这些为轴突。(记号 4 图像)显示了顶部难以发现的细胞,并将左侧的物体正确地标记识别为无 DNA 细胞碎片。

自己亲自动手试试吧! 

谷歌已经开源了该模型、完整数据集、训练、推理代码以及一个示例。谷歌还声称,只需借助最少的额外数据训练就能生成新标注/标签:在相关论文和示例代码中,谷歌展示了根据单张图像就可学会生成荧光标记。这要归功于迁移学习:如果模型已经掌握了类似任务,那么模型就可以更快地学习新任务,并使用更少的训练数据。

谷歌希望能够在不修改细胞的情况下生成标记的,有用的图像,这也将为生物学和医学研究开创全新的实验类型。如果你希望在自己的研究中尝试这项技术,可以请阅读《In Silico Labeling: Predicting Fluorescent Labels in Unlabeled Images》论文或者前往 github 页面查看模型代码!

via Google Research Blog,雷锋网(公众号:雷锋网)AI科技评论报道。


谷歌《Cell》论文:光学显微镜+深度学习=荧光显微镜

原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/129725.html

(0)
上一篇 2021年8月31日
下一篇 2021年8月31日

相关推荐

发表回复

登录后才能评论