Press "Enter" to skip to content

UCLA研究人员推出GedankenNet:一种自我监督的AI模型,从物理定律和思维实验中学习,推动计算成像的发展

UCLA研究人员推出GedankenNet:一种自我监督的AI模型,从物理定律和思维实验中学习,推动计算成像的发展 四海 第1张UCLA研究人员推出GedankenNet:一种自我监督的AI模型,从物理定律和思维实验中学习,推动计算成像的发展 四海 第2张

近年来,深度学习的最新进展对计算成像、显微镜和全息成像相关领域产生了重大影响。这些技术在生物医学成像、传感、诊断和3D显示等各个领域都有应用。深度学习模型在图像翻译、增强、超分辨率、去噪和虚拟染色等任务中展示出了非凡的灵活性和有效性。它们已成功应用于各种成像模式,包括明场和荧光显微镜;深度学习的整合正在重新塑造我们对微观尺度复杂世界的理解和能力。

在计算成像中,主流技术主要采用监督学习模型,需要大量带有注释或基准实验图像的数据集。这些模型通常依赖于通过各种方法获取的带标签的训练数据,例如经典算法或来自不同成像模式的注册图像对。然而,这些方法存在一些限制,包括繁琐的训练图像获取、对齐和预处理,以及可能引入推断偏差。尽管通过无监督和自监督学习来解决这些挑战的努力,但对实验测量或样本标签的依赖仍然存在。虽然一些尝试已经使用带标签的模拟数据进行训练,但准确表示实验样本分布仍然复杂,并且需要对样本特征和成像设置有先验知识。

为了解决这些固有问题,加州大学洛杉矶分校Samueli工程学院的研究人员引入了一种名为GedankenNet的创新方法,它提出了一种革命性的自监督学习框架。这种方法消除了对标记或实验训练数据以及任何与现实样本的相似性的需求。通过基于物理一致性和人工随机图像进行训练,GedankenNet克服了现有方法所面临的挑战。它为全息重建建立了一个新的范式,为在各种显微镜、全息术和计算成像任务中常用的监督学习方法的局限性提供了一个有前途的解决方案。

GedankenNet的架构由一系列空间傅里叶变换(SPAF)块组成,通过残差连接相互连接,有效捕捉空间和频率域信息。通过整合物理一致性损失函数,该模型在全息重建过程中强制执行波动方程的一致性,从而产生物理准确的复杂场输出。这种独特的训练策略使得GedankenNet能够在合成和实验全息图像上具有出色的泛化能力,即使面对未见样本、轴向散焦和光照波长的变化。

UCLA研究人员推出GedankenNet:一种自我监督的AI模型,从物理定律和思维实验中学习,推动计算成像的发展 四海 第3张
a)插图描述传统的迭代全息重建技术、自监督深度神经网络GedankenNet和现有的监督深度神经网络。| b)GedankenNet用于全息重建的自监督训练过程。

性能评估显示,GedankenNet在全息重建方面具有出色的能力。通过结构相似性指数(SSIM)、均方根误差(RMSE)和误差校正系数(ECC)等定量指标,GedankenNet在各种全息图像集上始终优于传统的监督技术。值得注意的是,GedankenNet的物理一致性损失有效地减轻了非物理性伪影,从而实现了更锐利和更准确的重建。模型与波动方程的兼容性进一步增强了其性能,使其能够通过正确的波动传播从散焦全息图中恢复高质量的物体场。这些发现突显了GedankenNet在外部推广方面的优越性,使其能够以出色的保真度处理新颖的实验数据和仅相位样本。

总体而言,加州大学洛杉矶分校研究团队的GedankenNet代表了计算成像和显微镜领域的一个开创性进展。通过采用自监督学习的力量和以物理为基础的思想实验,GedankenNet为训练神经网络模型提供了一种新的方法。这种创新方法不仅克服了当前监督学习技术的局限性,还为各种计算成像任务提供了更加多样化、与物理相容且易于训练的深度学习模型的途径。这一突破将极大地加速显微镜领域的进步,促进更广泛的应用和对微观世界的更深入的认识。

Leave a Reply

Your email address will not be published. Required fields are marked *