Press "Enter" to skip to content

Tag: Deep Learning

平衡创新与可持续性:在病理学深度学习中对环境责任的务实方法

“`html 这项研究深入探讨了病理学中存在的一个紧迫问题 – 深度学习所关联的显著二氧化碳当量(CO2eq)排放。这种环境影响可能成为普及医疗应用中深度学习的潜在障碍,迫切需要采取可持续的做法。随着世界日益依赖医疗技术进步,了解和缓解环境后果变得至关重要。 当前深度学习模型架构的发展趋势表现出越来越复杂的特点。来自不同机构的研究人员审查了这一发展及其潜在的环境影响。然而,他们提出了一个有说服力的解决方案,主张在模型选择上进行战略性转变。研究人员建议不要只注重最新和最大的模型,而是优先选择计算要求较低的模型。这种战略方法可以减少能源消耗,并引入模型修剪的概念。该技术可以精确删除不必要的参数,提高计算效率,同时保持最佳的模型性能。 所提出的解决方案包括几个关键策略,以平衡技术创新和环境责任。其中一个关键方面包括减少输入数据,特别是在病理学领域,大型全切片图像(WSIs)是常态。研究人员建议通过专用组织检测深度学习模型自动排除没有组织的区域。此外,该研究强调了在组织内选择最低需求的感兴趣区域(ROIs)的重要性,进一步简化流程并显著减少排放。 选择计算要求较低的模型的重点对于深度学习的环境影响具有深远意义。研究人员认为,较新较大的模型天然优于其前辈的假设在特定任务中可能不成立。他们的先前研究结果表明,较简单的深度学习模型在各种病理学任务中的表现可与更先进的模型相当,甚至更好。值得注意的是,一个相对简单、可训练参数较少的深度学习模型在显著减少CO2eq排放的同时,表现优于一个更深的模型。 此外,该研究引入了模型修剪的概念,作为增强可持续性的另一途径。模型修剪,也称为模型优化或压缩,涉及有策略地删除非必要的参数。研究团队的发现表明,经过修剪的分类模型在保持准确性的同时,产生的CO2eq排放比未经修剪的模型少20-30%。这一发现强调了战略模型开发的重要性,以确保深度学习在环境上的可持续性。 总之,这项研究在病理学中揭示了技术进步和环境责任之间的重要交汇点。所提出的方法为解决深度学习的生态影响提供了务实和环保的方法,同时不影响效率。随着医学界在技术进步中前进,这项研究呼吁进行范式转变,敦促研究人员和产业界在追求创新时优先考虑可持续性。通过采用这种做法,推动医疗技术的发展与减轻环境影响之间的微妙平衡变得可行,确保医疗创新的可持续未来。 “`

Leave a Comment

见证关系深度学习基准(RelBench):一系列逼真、大规模且多样化的关系数据库机器学习基准数据集

在人工智能(AI)和机器学习(ML)这两个快速发展的领域中,寻找有效的、自动化的和适应性强的方法变得极其重要。AI和ML方法的不断提升已经改变了机器可以完成的事情以及人类如何与机器交互的可能性。 包括深度学习在内的AI领域完全依赖于数据,重要的数据存储在数据仓库中,通过主外键关系链接在多个表中分散存储。使用这样的数据开发ML模型存在许多困难,需要大量的时间和工作,因为现有的ML方法并不适合直接从跨越多个关系表的数据中学习。目前的方法要求将数据通过一种称为特征工程的过程转换成单个表。 为了克服这一挑战,斯坦福大学、Kumo AI、耶鲁大学、马克斯普朗克学院和伊利诺伊大学厄巴纳-香槟分校的研究团队最近提出了关系深度学习。这种端到端的深度表示学习技术可以处理分散在多个表中的数据。该方法已经被开发成一种将关系表作为异构图的基本方法。该图模型中的每个表行代表一个节点,而主外键关系定义了边。 使用消息传递神经网络(MPNNs),可以自动遍历并学习多个表,从而提取利用所有输入数据的表示,并且不需要任何手动特征工程。研究团队还提出了RELBENCH,这是一个包括基准数据集和关系深度学习实现的综合框架。这些数据集涵盖了各个领域,从亚马逊产品目录中的图书评论到像Stack Exchange这样的网站上的对话。 RELBENCH包含三个核心模块,具体如下: 数据模块:RELBENCH的数据模块提供了有效使用关系数据集的框架。其中包括三个重要特性:时间数据划分、任务规范和数据加载。 模型模块:该模块通过将未处理数据转换为图形表示来构建图神经网络(GNNs)的预测模型。使用强大的深度学习库PyTorch Geometric,RELBENCH对几种广泛使用的GNN架构进行了基准测试。该模块允许模型架构的灵活性,对于桥接预测模型和原始关系数据开发之间的差距至关重要。 评估模块:该模块创建了一个统一的评估模型性能的过程。它以系统化的方式评估预测文件,提供了模型的有效性的量化指标。该模块与各种受欢迎的深度学习工具配合使用,因为它被设计为与深度学习框架无关。这种适应性使研究人员和从业者可以使用他们选择的框架,而不会牺牲评估过程。

Leave a Comment

这篇AI研究评论探讨了卫星图像和深度学习在衡量基于资产的贫困方面的整合

“`html 来自隆德大学和哈尔姆斯塔德大学的研究人员通过卫星图像和深度机器学习对可解释的AI在贫困估计中进行了回顾。通过透明度、可解释性和领域知识强调,对32篇论文的分析显示,这些关键要素在可解释的机器学习中表现出变异性,无法完全满足对贫困和福利的科学洞察和发现的需求。 这项研究通过分析32篇预测贫困/财富的论文,使用调查数据作为基准真实性,在城市和农村环境中应用它,并涉及深度神经网络,发现这些核心要素的状态存在变异性,不能满足对贫困和福利洞察的科学要求。该回顾凸显了解释性对于开发社区范围内的更广泛传播和接受的重要性。 引言介绍了在识别弱势社区和了解贫困决定因素方面的挑战,指出了信息缺口和家庭调查的局限性。强调深度机器学习和卫星图像在克服这些挑战方面的潜力,并强调在科学过程中的可解释性、透明性、可解释性和领域知识的需求,并评估了使用调查数据、卫星图像和深度神经网络预测贫困/财富中的可解释的机器学习的状态。目标是在开发社区范围内增强更广泛的传播和接受。 通过进行综合文献综述,该研究分析了满足特定标准的32项关于贫困预测、调查数据、卫星图像和深度神经网络的研究。文章讨论了解释深度学习成像模型的属性图的使用,并评估了其可解释性。本回顾旨在概述所审查论文中的可解释性,并评估它们在贫困预测的新知识中的潜在贡献。 对论文的回顾揭示了可解释的机器学习的核心要素(透明度、可解释性和领域知识)的不同状态,无法满足科学要求。可解释性和可解释性较弱,很少有研究人员解释模型或解释预测数据的努力。在特征模型的选择中普遍使用领域知识,但在其他方面使用较少。实验结果突出了一些洞察,如模拟财富指数的局限性和低分辨率卫星图像的影响。其中一篇论文以其强有力的假设和领域知识的积极评价脱颖而出。 在贫困、机器学习和卫星图像领域,可解释的机器学习方法中透明度、可解释性和领域知识的状态各不相同,并未达到科学要求。对于开发社区范围内更广泛传播的可解释性,超出了单纯的可解释性。论文中的透明度参差不齐,有些文件有很好的文档记录,而其他文件则缺乏可复现性。解释性和可解释性方面的不足仍然存在,很少有研究人员解释模型或解释预测数据。虽然在基于特征的模型中普遍使用领域知识进行选择,但在其他建模方面应用较少。在冲击要素中的排序和排名是一个重要的未来研究方向。 “`

Leave a Comment

深度学习模型如何模仿大脑中的人类语音识别:解读听觉处理

研究表明,将听觉数据转化为语言表示涉及到声音感知。当有人听到语音时,包括主要和非主要听觉皮层区域、听觉神经以及皮层下结构的听觉通路会被激活。由于环境条件和语言知觉单元的听觉信号会发生变化,自然语音知觉是一项艰巨的任务。尽管经典的认知模型能够解释许多语音知觉的心理特征,但在解释大脑编码和自然语音识别方面,这些模型还不够完善。深度学习模型在自动语音识别方面正接近人类的表现。 为了提高人工智能模型的可解释性,并提供新的数据驱动的感知计算模型,加州大学旧金山分校的研究人员旨在将深度学习模型的计算和表示与人类听觉系统的神经反应相关联。它旨在识别人类听觉回路和最先进的语音神经网络模型之间的共同表示和计算。分析重点是与上行听觉通路中真实语音的神经反应相关联的深度神经网络(DNN)语音嵌入,并使用神经编码框架。 详细比较了听觉回路和深度神经网络(DNN)模型的各种计算架构(卷积、循环和自注意)和训练过程(有监督和无监督目标)。此外,检查DNN的计算能提供有关神经编码预测的基本过程的信息。与之前针对单一语言(主要是英语)的建模尝试不同,他们在研究中使用了跨语言范式来揭示语音知觉的语言特定和语言不变特征。 令人着迷的是,研究人员展示了最新的DNN如何紧密模拟人类听觉系统中的关键信息处理要素。当预测整个听觉通路中对真实语音的神经反应时,DNN的特征表示比基于理论驱动的声学-语音学特征集表现得更好。此外,他们还检查了深度神经网络(DNN)中基本的上下文计算。他们发现,完全无监督的自然语音训练是这些网络获取与语言相关的关键时间结构(如音素和音节上下文)的方式。这种获取特定于语言的语言信息的能力预测了非主要听觉皮层中DNN-神经编码的相关性。线性STRF模型无法揭示在跨语言知觉期间STG中的特定于语言的编码,而基于深度学习的神经编码模型可以。 总之 使用比较方法,研究人员展示了语音学习的深度神经网络(DNN)与人类听觉系统之间的重要的表征和计算相似性。从神经科学的角度来看,基于经典特征的编码模型在从统计结构中提取中间语音特征方面被数据驱动的计算模型所超越。通过与神经反应和选择性进行对比,他们为理解AI方面DNN的“黑箱”表示提供了一种方法。他们展示了如何使现代DNN可能选择类似于人类听觉系统信息处理方式的表示。根据研究人员的说法,未来的研究可以使用更广范围的AI模型和更大更多样的人群来调查和验证这些结果。 本文发表在《解读听觉处理:深度学习模型如何在大脑中模拟人类语音识别》一文中,首发于MarkTechPost。

Leave a Comment

理解GPT-4V(ision)的概念:新的人工智能趋势

OpenAI一直处于人工智能领域的最新进展前沿,拥有像GPT和DALLE这样高效的模型。GPT-3推出时是一种独特的模型,具有出色的语言处理能力,如文本摘要、句子补全等等。其继任者GPT-4的发布标志着我们与人工智能系统互动方式的重大转变,它提供了多模态能力,即能够处理文本和图像。为了进一步增强其功能,OpenAI最近发布了GPT-4V(ision),允许用户利用GPT-4模型分析图像输入。 近年来,多模态LLM的发展越来越多,这些模型能够处理不同类型的数据。GPT-4就是这样一种模型,它在许多基准测试中展示了与人类水平相媲美的成果。GPT-4V(ision)建立在GPT-4现有特性的基础上,提供可视化分析以及现有的文本交互特性。使用上限,需要通过订阅GPT-Plus才能访问该模型。此外,还必须加入API的等待列表才能获得访问权限。 GPT-4V(ision)的关键特性 该模型的一些关键能力包括: 它可以接受用户的视觉输入,如屏幕截图、照片和文档,并执行各种任务。 它可以执行对象检测,并提供有关图像中不同对象的信息。 另一个引人注目的特点是它可以分析以图表、图形等形式表示的数据。 此外,它能够阅读和理解图像中的手写文字。 GPT-4V(ision)的应用 数据解释是GPT-4V(ision)最令人兴奋的应用之一。该模型能够分析数据可视化,并根据其提供关键洞见,从而提升数据专业人士的能力。 该模型还可以根据网站设计编写代码,这有望极大加快网站开发的过程。 ChatGPT已被内容创作者广泛使用,以帮助他们克服缺乏灵感并快速生成内容。然而,GPT-4V(ision)的出现将事情推向了一个完全不同的水平。例如,我们首先可以使用该模型创建提示以生成DALLE 3的图像,然后使用该图像写博客。 该模型还可以帮助处理多种条件处理(如分析停车情况)、解密图像中的文本、对象检测(以及对象计数和场景理解等任务)等。该模型的应用不限于上述提到的点,几乎可以应用于各个领域。 GPT-4V(ision)的局限性 尽管该模型具有高度的能力,但需要记住它容易出现错误,并且有时可能基于图像输入产生不正确的信息。因此,在处理数据解释时应避免过度依赖,并且在复杂推理的领域,例如数独问题,GPT-4可能面临挑战。 隐私和偏差是使用该模型所涉及的另一组主要问题。用户提供的数据可能被用于重新训练该模型。与其前身一样,GPT-4也会强化社会偏见和观点。因此,考虑到这些限制,处理高风险任务(如科学图像和医疗建议)时应避免使用GPT-4V(ision)。 结论 总之,GPT-4V(ision)是一种功能强大的多模态LLM,为人工智能能力树立了新的标杆。通过处理文本和图像的能力,它为使用人工智能的应用开辟了新的可能性。尽管仍然存在一些局限性,但OpenAI一直在努力使该模型安全可用,我们可以将其用于增强分析能力,而不是完全依赖它。 本文《理解GPT-4V(视觉)的概念:新的人工智能趋势》首次出现在MarkTechPost。

Leave a Comment

NVIDIA为一些最大的亚马逊Titan基础模型提供训练能力

关于大型语言模型的一切都是巨大的——巨大的模型在数千个NVIDIA GPU上的大规模数据集上进行训练。 这对于追求生成式人工智能的公司来说会带来很多大的挑战。 NVIDIA NeMo是一个构建、定制和运行LLM的框架,有助于克服这些挑战。 亚马逊网络服务的一支由经验丰富的科学家和开发人员组成的团队正在创建Amazon Titan为Amazon Bedrock提供基础模型,后者是一项基于基础模型的生成式人工智能服务,并在过去的几个月中一直使用NVIDIA NeMo。 “与NeMo合作的一个重要原因是它的可扩展性,它具有优化功能,可以在高GPU利用率下运行,并使我们能够扩展到更大的集群,以便我们能够更快地训练和交付模型给我们的客户,”亚马逊网络服务的高级应用科学家Leonard Lausen说。 融入大规模环境 NeMo中的并行技术使得大规模LLM的训练更加高效。与AWS的弹性适配器相结合,可以将LLM分散到多个GPU上加速训练。 EFA提供了一个UltraCluster网络基础设施,可以直接连接超过10,000个GPU,并通过NVIDIA GPUDirect绕过操作系统和CPU。 这种组合使得AWS的科学家们能够提供优秀的模型质量,这是仅依赖数据并行化方法无法实现的。 适用于各种规模的框架 “NeMo的灵活性,”Lausen说,“使得AWS能够根据新的Titan模型、数据集和基础设施的特点来定制训练软件。” AWS的创新包括从Amazon Simple Storage Service(Amazon S3)到GPU集群的高效流处理。“由于NeMo基于像PyTorch Lightning这样的流行库构建,这些改进很容易融入其中,这些库标准化了LLM训练流程组件,”Lausen说。 AWS和NVIDIA的目标是吸取他们的合作所学,为顾客带来像NVIDIA…

Leave a Comment

NVIDIA BioNeMo在AWS上实现了药物发现的生成式人工智能

领先的制药和技术生物公司的研究人员和开发人员现在可以通过亚马逊网络服务(AWS)轻松部署NVIDIA Clara软件和服务,加速医疗保健领域的发展。 该计划于AWS re:Invent上宣布,为使用AWS云资源的医疗保健和生命科学开发人员提供了灵活性,可以集成NVIDIA加速的产品,例如NVIDIA BioNeMo——一种用于药物发现的生成式人工智能平台,即将在AWS上推出NVIDIA DGX Cloud,目前可通过AWS ParallelCluster集群管理工具和Amazon SageMaker机器学习服务使用。 全球数千家医疗保健和生命科学公司使用AWS。现在,他们将能够使用BioNeMo访问专有数据构建或定制数码生物学基础模型,并使用NVIDIA GPU加速的AWS云服务器来扩大模型的培训和部署。 包括Alchemab Therapeutics、Basecamp Research、Character Biosciences、Evozyne、Etcembly和LabGenius在内的生物技术创新者已经是AWS的用户,并且已经在使用BioNeMo进行生成式人工智能加速的药物发现和开发。这种合作使他们能够更快速地扩展云计算资源,以开发基于生物分子数据的生成式人工智能模型。 此次宣布扩展了NVIDIA在AWS上已有的面向医疗保健的产品——用于医学成像工作流程的NVIDIA MONAI和加速基因组学的NVIDIA Parabricks。 AWS新推出:NVIDIA BioNeMo推进生成式人工智能的药物发现 BioNeMo是一个针对数码生物学生成式人工智能的领域专用框架,包括预训练的大型语言模型 (LLMs)、数据加载器和优化的训练配方,可以帮助加速计算机辅助药物发现的目标识别、蛋白质结构预测和药物候选筛选。 药物发现团队可以利用他们的专有数据使用BioNeMo构建或优化模型,并在基于云的高性能计算集群上运行这些模型。 其中的一个模型ESM-2是一款功能强大的LLM,支持蛋白质结构预测,几乎能够线性扩展至256个NVIDIA H100…

Leave a Comment

Microsoft发布了Orca 2:通过定制化训练策略在更小的语言模型中开创先进推理技术

LLMs(大型语言模型)是在大量文本数据上进行训练的,以便理解和生成类似于人类语言的模型。如GPT-3、GPT-4和PaLM-2等模型就是其中的几个例子。这些模型执行复杂的语言任务,包括文本生成、对话交互和问题回答。它们在各个领域的应用中,提升了聊天机器人、编码、网络搜索、客户支持和内容制作等用户体验。 然而,随着AI社区深入研究更小规模模型的广阔领域,微软推出了名为Orca 2的下一个版本,旨在增强紧凑型AI模型的能力。通过集成详细解释和追踪,Orca 1在BigBench Hard和AGIEval等具有挑战性的基准测试中超越传统的指导训练模型。Orca 2进一步深入研究了增强训练信号的潜力,以提高较小语言模型的推理能力。 模仿学习一直是改善小型语言模型的流行方法。尽管这些较小的模型可以以与教师类似的方式生成内容,但它们通常需要在推理和理解能力上迎头赶上。尽管模仿学习具有一些好处,但也有缺点,可能限制较小模型发挥其全部潜力,并阻止它们使用最佳的解决方案来解决特定问题和模型能力。它们通常需要帮助匹配其较大模型对推理和理解能力的匹配,从而限制了它们的潜力。 与简单模仿不同,Orca以各种推理技巧指导模型。这些技巧包括逐步处理、回忆然后生成、回忆-推理-生成和直接答案。目标是指导模型获取辨别最有效解决策略的能力,以适应每个特定任务的细微差别。 Orca 2的零次推理能力凸显了改进更小型神经网络的可能性。微软继续相信,像Orca 2这样的专门训练方法可能揭示新的有用应用。这种方法旨在提高这些神经网络部署的效果。 最重要的是,Orca 2在训练阶段减少了初始线索所引发的特定行为。通过创新的Prompt Erasure技术,Orca 2转变为慎重的推理者。与盲目模仿不同,这种方法使用较大模型作为行为来源,选择最佳行为来解决给定任务。 研究人员对Orca 2进行了全面的基准测试。他们表明,它在与语言理解、常识推理、多步数学问题、阅读理解、摘要等相关的其他等价模型上表现更好。例如,在零次推理任务上,Orca 2-13B的准确率比13B模型高出25%以上,与70B模型持平。 Orca 2在小型语言模型的演进中迈出了重要的一步。它离开了传统的模仿学习,注重教授多样的推理技巧,展示了发挥紧凑型AI模型潜力的新方法。

Leave a Comment

这篇AI论文介绍了“闪电猫”:一种基于深度学习的智能合约漏洞检测工具

智能合约在区块链技术中发挥着重要作用,用于开发去中心化应用。智能合约易受漏洞攻击,可能导致潜在的财务损失和系统崩溃。传统的漏洞检测方法,如静态分析工具,通常因依赖预定义规则而产生误报和漏报。作为回应,中国Salus Security团队提出了一种名为“闪电猫”的新型人工智能解决方案,利用深度学习技术进行智能合约漏洞检测。 论文的关键点可分为三个部分。首先,介绍了利用深度学习方法进行智能合约漏洞检测的闪电猫解决方案。其次,提出了一种有效的数据预处理方法,重点强调通过CodeBERT提取语义特征。最后,实验结果表明,优化的CodeBERT模型在其他模型上表现更优秀。 研究人员通过在闪电猫框架中提出三种优化的深度学习模型来解决静态分析工具的局限性:优化的CodeBERT、LSTM和CNN。CodeBERT模型是一种经过预训练的基于Transformer的模型,针对智能合约漏洞检测这个特定任务进行微调。为了增强语义分析能力,研究人员在数据预处理中采用了CodeBERT,以更准确地理解代码的语法和语义。 实验使用了SolidiFI-benchmark数据集,该数据集包含9369个注入了来自七个不同类型漏洞的易受攻击合约。结果展示了优化的CodeBERT模型的优越性能,达到了令人印象深刻的93.53%的F1分数。通过获取易受攻击的代码函数段来准确提取漏洞特征的重要性,CodeBERT用于数据预处理有助于更精确地捕捉语法和语义。 研究人员把闪电猫定位为一种超越静态分析工具的解决方案,利用深度学习进行自适应和持续更新。CodeBERT因其有效的数据预处理能力以及对语法和语义的全面捕捉而备受重视。优化的CodeBERT模型的优越性能归功于其在提取漏洞特征方面的准确性,其中关键的漏洞代码段起着重要作用。 总之,研究人员倡导智能合约漏洞检测在防止财务损失和维护用户信任方面的关键作用。闪电猫以其深度学习方法和优化模型的优越性崭露头角,相比现有工具,在准确性和适应性方面表现出色。

Leave a Comment

UCL和Google DeepMind的研究人员揭示了Transformer神经网络中上下文学习(ICL)的瞬息动态

模型在推理时利用输入来修改其行为的能力,而无需更新权重以解决训练期间不存在的问题,被称为上下文学习或ICL。神经网络结构,尤其是为了少样本知识而创建和训练的能够从少量示例中学习所需行为的能力,是最早表现出这种能力的。为了使模型在训练集上表现良好,它必须记住上下文中的示例-标签映射,以便在未来进行预测。在这些情况下,训练意味着在每个“episode”上重新安排与输入示例对应的标签。测试时提供了新的示例-标签映射,网络的任务是使用这些来对查询示例进行分类。 ICL的研究是由transformer的发展而演变而来的。人们注意到,作者并没有通过训练目标或数据来特别鼓励ICL;相反,经过适当大小的自回归训练后,基于transformer的语言模型GPT-3展示了ICL的能力。从那时起,已经有大量的研究探讨或记录了ICL的实例。由于这些令人信服的发现,大规模神经网络中的新兴能力成为研究的主题。然而,最近的研究表明,只有在某些具有特定语言数据特征的情况下,transformer的训练才会有时产生ICL。研究人员发现,在训练数据缺乏这些特征的情况下,transformer通常会转向内部权重学习(IWL)。在IWL状态下,transformer不使用新提供的上下文信息,而是使用存储在模型权重中的数据。关键是,ICL和IWL似乎相互矛盾;当训练数据具有突发特征(即对象以聚类形式而不是随机形式出现)并且具有大量的标记或类别时,ICL似乎更容易出现。有必要使用已建立的数据生成分布进行受控调查,更好地理解transformer中的ICL现象。 同时,还有一系列辅助语料研究探讨了直接在有机网络规模的数据上训练的巨型模型的出现,得出结论认为像ICL这样的非凡特征更可能在训练了更多数据的大型模型中出现。然而,依赖于大型模型带来了重要的实际障碍,包括快速创新、低资源环境下的能源高效训练和部署效率。因此,大量的研究致力于开发更小的transformer模型,这些模型可以提供等效的性能,包括出现ICL的能力。目前,发展紧凑而有效的转换器的首选方法是过度训练。这些小型模型通过使用更多的数据进行训练(可能是重复的)来计算预算,而不仅仅是遵循缩放规则所需的数据量。 图1:具有12层和64个嵌入维度,使用1600门课程进行训练,每类20个示例,上下文学习是暂时的。每个训练会话都会出现突发情况。由于训练时间不足,研究人员尽管发现这些环境极大地鼓励ICL,却没有看到ICL的瞬时性。(a) ICL评估器的准确性。(b) IWL评估器的准确性。研究团队注意到,由于测试序列属于分布之外,IWL评估器的准确性提高得非常缓慢,尽管训练序列的准确性为100%。(c) 训练日志的损失。两种颜色代表两个实验种子。 从根本上说,过度训练是建立在近期LLMs的ICL调查中的一个固有前提上的:持久性。人们认为,只要模型已经接受了足够的训练以产生ICL依赖能力,并且训练损失持续减少,模型将会在训练过程中保持。在这里,研究团队否定了普遍的持久性假设。他们通过修改一个常见的基于图像的少样本数据集来做到这一点,这使得我们能够在一个受控环境中全面评估ICL。研究团队提供了简单的场景,其中ICL出现并随着模型损失的减少而消失。 换个角度来说,尽管ICL被广泛认可为一种新兴现象,研究团队也应考虑到它可能只是暂时存在的可能性(图1)。研究团队发现,这种短暂性发生在各种模型大小、数据集大小和数据集种类上,尽管研究团队也表明某些属性可以延缓短暂性的出现。一般而言,那些被长时间不负责任地训练的网络发现ICL可能会瞬间消失,让人们对当代人工智能系统所期待的技能感到失望。

Leave a Comment

医疗影像人工智能更易实现:NVIDIA推出作为托管云服务的MONAI

英伟达今天推出了一项用于医学影像人工智能的云服务,通过完全托管的基于云的应用程序编程接口,进一步简化和加速地创建基准数据和训练专门的人工智能模型。 在芝加哥举行的北美放射学学会年会上宣布的英伟达MONAI云API——提供了一条加速开发人员和平台提供商将人工智能整合到医学影像产品中的快速路径。这些API使用英伟达和伦敦国王学院创办的开源MONAI项目构建。 医学影像在整个医疗保健领域至关重要,约占约90%的医疗数据。放射科医师和临床医生用它进行筛查、诊断和干预,生物药物研究人员用它评估临床试验患者对新药物的反应,医疗设备制造商用它提供实时决策支持。 在这些领域的工作规模需要一个专门的医学影像人工智能工厂——一个企业级平台,提供大规模的数据管理、创建基准注释、加速模型开发和建立无缝的人工智能应用部署。 通过英伟达MONAI云API,解决方案提供商可以更轻松地将人工智能整合到他们的医学影像平台中,使他们能够为放射科医师、研究人员和临床试验团队提供强大的工具,构建专门领域的人工智能工厂。这些API可以通过英伟达DGX Cloud AI超级计算服务的早期访问模式使用。 英伟达MONAI云API已经集成到Flywheel中,这是一个支持端到端人工智能开发工作流程的领先医学影像数据和人工智能平台。医学图像注释公司RedBrick AI和机器学习运营平台提供商Dataiku的开发人员正准备将英伟达MONAI云API整合到他们的产品中。 医学影像的即时数据标注和训练 构建高效、具有成本效益的人工智能解决方案需要一个健壮的、专门领域的开发基础,其中包括针对软件的全栈优化、可扩展的多节点系统和最先进的研究。它还需要高质量的基准数据,对于需要高级专业技能进行标注的3D医学影像来说,这可能是艰难而耗时的。 英伟达MONAI云API具备由VISTA-3D(Vision Imaging Segmentation and Annotation)基础模型驱动的交互式标注功能。它专为连续学习而设计,这一功能可根据用户反馈和新数据提高人工智能模型的性能。 VISTA-3D是通过对来自超过4000名患者的3D CT扫描图像进行注释数据集训练而得到的,涵盖了各种疾病和身体部位,可加速用于医学影像分析的3D分割掩模的创建。随着连续学习,人工智能模型的注释质量会随时间提高。 为了进一步加速人工智能训练,该版本还包括使基于MONAI预训练模型构建自定义模型变得无缝的API。英伟达MONAI云API还包括Auto3DSeg,它自动化了给定的3D分割任务的超参数调优和人工智能模型选择,简化了模型开发过程。 英伟达研究人员最近在MICCAI医学影像会议上使用Auto3DSeg赢得了四项挑战。其中包括用于分析肾脏和心脏的3D CT扫描的人工智能模型,以及用于大脑MRI和心脏的3D超声。 解决方案提供商和平台构建者拥抱英伟达MONAI云API 医学影像解决方案提供商和机器学习平台正在使用英伟达MONAI云API向客户提供至关重要的人工智能洞见,加速他们的工作。 Flywheel通过NVIDIA AI…

Leave a Comment

见snntorch:一个用于使用脉冲神经网络执行基于梯度的学习的开源Python包

在人工智能领域,效率和环境影响已成为重要的关注点。加州圣克鲁兹大学的Jason Eshraghian开发了snnTorch这一开源Python库,实现了脉冲神经网络,从大脑在处理数据方面的出色效率中汲取灵感。研究中强调的关键问题在于传统神经网络的低效率和不断增长的环境足迹。 传统神经网络缺乏大脑处理机制的优雅性。脉冲神经网络模仿大脑,只在有输入时激活神经元,与持续处理数据的传统网络形成对比。Eshraghian旨在将人工智能注入到生物系统中观察到的效率中,为当前神经网络能量密集型所引起的环境担忧提供切实可行的解决方案。 鉴于snnTorch这一在大流行病期间产生的热情项目,其使用已取得了不错的成果,下载量超过了10万次。它的应用范围从NASA的卫星跟踪到与Graphcore等公司的合作,优化AI芯片。snnTorch致力于利用大脑的能源效率,并将其无缝集成到AI功能中。在芯片设计背景下,Eshraghian看到了通过软件和硬件共同设计以实现最大功率效率的计算芯片优化的潜力。 随着snnTorch的采用增加,对教育资源的需求也在增长。Eshraghian的论文作为该库的伴随文档具备双重功能:记录代码并提供一个基于大脑启发的人工智能的教育资源。它采用了极为诚实的方法,承认了神经形态计算的不确定性,避免了学生在这个领域中普遍存在的挫折感。 这项研究的诚实也体现在其呈现方式上,使用代码块来呈现,这是传统研究论文的一种变化。这些带有解释的代码块突出显示了某些领域的不确定性,提供了在经常晦涩难懂的领域中的透明度。Eshraghian旨在提供他在编码之旅中所希望拥有的资源。这种透明度在有关研究在神经形态硬件初创企业的入职培训中的应用方面获得了积极的回响。 这项研究探讨了大脑启发深度学习的限制和机会,并认识到相对于人工智能模型而言,我们对大脑过程的理解还存在差距。Eshraghian提出了一种前进的道路:识别相关性和差异。一个关键区别是大脑无法重访过去的数据,而专注于实时信息——这为可持续人工智能至关重要的增强能源效率提供了机会。 这项研究深入探讨了神经科学的基本概念:“共同激发,联结在一起”。传统上认为这与深度学习的误差反向传播截然相反,研究者提出了一种互补的关系,开辟了探索的道路。与生物分子工程研究人员合作在脑器官模型方面架起了生物模型与计算研究之间的桥梁。将“生物硬件”纳入软件/硬件共同设计范例,这种多学科方法承诺为大脑启发的学习提供深入的洞察力。 总之,snnTorch及其论文标志着迈向大脑启发人工智能的里程碑。其成功凸显了对传统神经网络的持续需求,即对能源效率更高的替代方案。研究者的透明和教育方法促进了一个致力于推动神经形态计算界限的协作社区。在snnTorch的指导下,该领域有潜力革新人工智能,并加深我们对人脑进程的理解。

Leave a Comment

解码复杂的 AI 模型:普渡大学研究人员将深度学习预测转化为拓扑地图

复杂预测模型的高度参数化特性使得对预测策略进行描述和解释困难。研究人员引入了一种使用拓扑数据分析(TDA)的新方法来解决这个问题。这些模型,包括机器学习、神经网络和人工智能模型,已经成为各个科学领域中的标准工具,但由于它们的广泛参数化而通常难以解释。 普渡大学的研究人员意识到需要一种将这些复杂模型转化为更易于理解的格式的工具。他们利用TDA构建Reeb网络,提供了一种拓扑视图,有助于预测策略的解释。该方法已应用于各个领域,展示了它在大型数据集上的可扩展性。 所提出的Reeb网络本质上是拓扑结构的离散化,以便可视化预测景观。Reeb网络中的每个节点代表预测空间的本地简化,计算为具有类似预测的数据点的聚类。节点基于共享数据点连接,揭示了预测与训练数据之间的有用关系。 这种方法的一个显著应用是在检测训练数据中的标签错误。Reeb网络在识别模糊区域或预测边界方面表现出良好的效果,指导进一步对潜在错误的研究。该方法还在理解图像分类中的泛化和观察与BRCA1基因中的致病突变相关的预测方面展示了实用性。 与tSNE和UMAP等广泛使用的可视化技术进行了比较,突出了Reeb网络提供有关预测之间边界和训练数据与预测之间关系的更多信息。 构建Reeb网络需要具备一组具有未知标签的数据点、数据点之间已知的关系以及每个预测值的实值指南等前提条件。研究人员采用了一种称为GTDA(基于图的TDA)的递归分裂和合并过程,从原始数据点和图中构建了Reeb网络。经过对ImageNet中的130万图像的分析验证了该方法的可扩展性。 在实际应用中,Reeb网络框架应用于根据亚马逊评论预测产品类型的图神经网络。它揭示了产品类别中的关键模糊性,强调了预测准确性的限制,并提出了需要改进标签的建议。将该框架应用于在Imagenet数据集上预训练的ResNet50模型时,也获得了类似的见解,提供了图像的视觉分类和揭示了真相标签错误的分类。 研究人员还展示了将Reeb网络应用于理解与恶性基因突变相关的预测,特别是BRCA1基因。网络突出了DNA序列中的局部组成部分及其与次级结构的映射,有助于解释。 总之,研究人员预计拓扑检查技术,如Reeb网络,将在将复杂预测模型转化为可操作的人类级洞察力方面起到关键作用。该方法从标签错误到蛋白质结构方面的问题,表明其广泛的适用性和作为预测模型的早期诊断工具的潜力。

Leave a Comment

AI技术驱动的科技公司帮助杂货商在供应链管理方面重新开始

谈论追求低垂果实。Afresh是一家人工智能初创公司,通过使供应链更高效,帮助杂货店和零售商减少食品浪费。 在NVIDIA的最新一期人工智能播客中,主持人诺亚·克拉维茨(Noah Kravitz)与该公司的联合创始人兼总裁Nathan Fenner进行了交谈,探讨了公司的使命、产品和消除食品浪费的更大挑战。 针对杂货店和零售商的大多数供应链和库存管理产品都已经过时。Fenner和他的团队注意到,那些针对非易腐品的解决方案在新鲜侧面效果不佳,导致大量食物浪费并造成数十亿美元的利润损失。 人工智能播客AI力量的科技公司帮助杂货店在供应链管理中重新开始 这个团队最初致力于解决店铺补货的挑战,通过开发一个帮助杂货商决定订购多少新鲜食品以优化成本并满足需求的平台。 他们创建了机器学习和人工智能模型,能够有效地使用由于时间衰减、需求波动较大以及缺乏条形码导致自助结账台扫描错误等因素而产生的新鲜食品所生成的数据,这些数据比非易腐品所生成的数据更加混乱。 结果是一个完全集成的、基于机器学习的平台,它可以在操作过程的每个节点上帮助杂货商做出明智的决策。 该公司还最近推出了库存管理软件,允许杂货商通过智能跟踪库存来节省时间并提高数据准确性。这些信息可以输入到平台的订购解决方案中,进一步提高库存数据的准确性。 这一切都是Afresh致力于应对气候变化的更大使命的一部分。 “我们可以做的最具影响力的事情就是减少食品浪费以缓解气候变化,”Fenner表示。“这真的是将我引入这个行业的关键之一:我一直对从事气候领域工作有着敏锐的视觉。对我们团队来说,这真的是激励人心的,并且是我们使命的关键部分。” 订阅人工智能播客:现在可在亚马逊音乐上收听 人工智能播客现在可在亚马逊音乐上收听。 此外,还可以通过iTunes、Google Podcasts、Google Play、Castbox、DoggCatcher、Overcast、PlayerFM、Pocket Casts、Podbay、PodBean、PodCruncher、PodKicker、Soundcloud、Spotify、Stitcher和TuneIn获得人工智能播客。 让人工智能播客变得更好。有几分钟可以填写这份听众调查问卷。

Leave a Comment

NVIDIA与盖尼特合作,利用生成式人工智能加速药物研发

Roche集团的成员Genentech正在开创性地使用生成型人工智能来发现和开发新的治疗方法,并以更高效的方式向患者提供治疗。 Genentech,这家生物技术先驱与NVIDIA之间的新合作旨在通过将两家公司的专家汇聚在一起,优化和加速Genentech专有的算法,从而改变发现和开发新药物的方式。 NVIDIA将与Genentech合作,加速在NVIDIA DGX Cloud上进行这些模型,该平台提供由NVIDIA云服务提供商合作伙伴托管的专用AI超级计算机实例和软件。 Genentech计划使用NVIDIA BioNeMo,该平台能够使生物技术公司以规模化方式定制模型,并将BioNeMo云应用程序接口直接整合到计算药物发现工作流程中。 BioNeMo现已作为训练服务提供,它是一个领域特定的平台,简化、加速和扩展了计算药物发现的生成型人工智能应用程序。它使研究人员能够在DGX Cloud上对最先进的模型进行预训练或微调。 这次合作最初的重点将放在优化Genentech的药物发现AI模型上,以实现“实验室循环”框架。目标是使研究人员能够理解复杂的生物分子模式和关系,真正颠覆药物研发,提高研发的成功率,并赋予科学家为患者和更广泛的医疗生态系统带来乘法效益,而不是线性或加法效益。 Genentech研究与早期发展执行副总裁Aviv Regev表示:“我们与NVIDIA的合作建立在长期以来在技术方面取得成功并在最初并不显而易见的领域部署技术的基础上。我们是第一家利用分子生物学进行药物发现和开发的生物技术公司,改变了世界。我们开创了抗体治疗的范式。现在,我们将人工智能、实验室和临床结合在一起,以揭示海量数据中无法访问的模式,并设计实验来测试这些模式。与NVIDIA的合作,引入生成型AI,有能力快速推动发现和设计改进全球患者生活的治疗方法。” 通过计算简化药物发现 目前,药物发现和开发是一个耗时、复杂且昂贵的过程。预测新药物的药靶是困难的,同样成功将分子开发为潜在的治疗药物也是如此。人工智能可以发挥转变性的作用,因为生成型和其他人工智能模型可以通过在大规模数据集上进行训练,帮助科学家快速识别潜在的药物分子和相互作用。 对于Genentech来说,使用人工智能有助于弥合实验室实验和计算算法之间的差距。 该公司的研发团队gRED已经在多个领域使用人工智能进行了重要工作,以发现和开发新的治疗方法,并更多地了解生物学和疾病的基本构建块。 Genentech和NVIDIA的团队将共同努力,优化Genentech定制开发的模型,以缩短药物发现和开发这一耗时的过程,并取得更大的成功。 将人工智能纳入循环 Genentech的“实验室循环”是一个迭代框架,用于生成和探索具有预测特性的分子设计。它旨在使用实验数据来建立生成型计算模型,并更好地优化未来的分子设计。NVIDIA将帮助Genentech通过加速训练和推断Genentech的药物发现模型来优化其框架。 通过这种合作,NVIDIA的人工智能专家将获得有关药物发现和开发中与AI相关的挑战的见解。NVIDIA计划利用这些见解来改进其BioNeMo平台和其他平台,以进一步适应生物技术行业使用的模型的要求。 NVIDIA的医疗保健副总裁Kimberly Powell表示:“人工智能在加速药物发现和开发方面可以发挥转变性的作用,就像在医疗保健和生命科学的其他许多领域一样。 NVIDIA与Genentech共同开发和实施的人工智能模型和算法使我们能够快速迭代和发现洞见,从而推动科学创新。” 订阅NVIDIA医疗资讯。

Leave a Comment

揭开权重、偏置与损失函数的奥秘:深入探索深度学习

深度学习是一种利用分层神经网络来帮助计算机自动地从大量数据中学习的机器学习方法,类似于人类的学习方式在高层次上,深度学习模仿了人类大脑处理信息的方式,通过多个层次的神经网络将输入的数据逐步转化为有用的特征和抽象表示,从而实现对复杂问题的高效解决

Leave a Comment

UC Berkeley的研究人员提出了一种人工智能算法,可以实现零样本学习目标导向对话代理的获取

大型语言模型(LLM)在各种自然语言任务中表现出很强的能力,例如文本摘要、问答和代码生成等,成为许多实际问题的强有力解决方案。然而,这些模型在目标导向对话方面存在困难,即需要通过对话实现目标,例如作为一名有效的旅行顾问提供量身定制的旅行计划。在实践中,它们通常提供冗长且非个性化的回答。 使用有监督的微调或单步强化学习(RL)训练的模型通常在此类任务中表现出困难,因为它们在多次交互后未针对整体对话结果进行优化。此外,它们在处理此类对话中的不确定性方面也存在不足。在本文中,来自加州大学伯克利分校的研究人员探索了一种将RL与LLMs相结合以实现目标导向对话的新方法。他们的贡献包括一种优化的零样本算法和一种名为”imagination engine (IE)”的新系统,该系统可生成与任务相关且多样化的问题以训练下游代理。 由于IE本身无法生成有效的代理,研究人员利用LLM生成可能的情景。为了增强代理实现期望结果的能力,需要使用多步强化学习来确定最优策略。研究人员对此方法进行了一次修改。他们使用线下基于值的RL从合成数据本身学习策略,而不是使用任何在线策略样本。 为了测试他们方法的有效性,研究人员将GPT代理和IE+RL代理的性能进行了人工评估对比。他们考虑了两个基于实际问题的目标导向对话。研究人员在IE中使用GPT-3.5模型生成合成数据,并使用一个相对较小的仅解码器的GPT-2模型作为下游代理。这使得他们的方法更实用,因为仅在数据生成阶段需要先进模型,从而降低了计算成本。 根据他们的实验,他们发现他们提出的代理在所有度量指标上均优于GPT模型,并确保了对话结果的自然性。从定性结果来看,IE+RL代理的表现也优于其相对应的代理。它生成易回答的问题,并且根据前一个问题智能地提出后续问题。研究人员还使用模拟比较了这两个代理的性能。虽然两者几乎相当,IE+RL代理优于GPT代理,但在定性评估中能够产生更好的结果。 总之,在这篇研究论文中,作者介绍了一种改善LLMs在目标导向对话中性能的方法。他们使用想象引擎生成多样化、与任务相关且真实的合成数据来训练对话代理。更具体地说,他们使用线下方法来避免计算成本。结果表明,他们的方法始终胜过传统方法,为未来的改进铺平了道路。他们相信,这个过程还可以进一步自动化,以提高零样本对话代理的性能,从而改善我们与人工智能系统的互动方式。

Leave a Comment

这篇AI论文介绍了一种深度学习模型,该模型使用真实世界的视网膜OCT扫描来分类和分析年龄相关性黄斑变性的不同阶段

一篇新的研究论文提出了一种基于深度学习的分类器,用于使用视网膜光学相干断层扫描(OCT)检测老年性黄斑变性(AMD)阶段。该模型利用两阶段卷积神经网络,将Topcon OCT图像中以黄斑为中心的3D体积分成正常、早期/中期AMD(iAMD)、萎缩(GA)和新生血管(nAMD)阶段。第一阶段采用2D ResNet50进行B扫描分类,第二阶段使用较小模型(ResNet)进行体积分类。 经过大量数据集的训练,该模型在将以黄斑为中心的3D体积分类为正常、iAMD、GA和nAMD阶段方面表现出色。该研究强调了准确的AMD分期对于及时治疗的重要性。性能指标包括ROC-AUC、平衡准确率、准确率、F1分数、敏感性、特异性和马修斯相关系数。 研究详细介绍了使用视网膜OCT扫描创建基于深度学习的自动AMD检测和分期系统。与传统方法相比,OCT是一种非侵入性成像技术,在提供关于AMD分期的详细见解方面至关重要。该研究强调了准确的AMD分期对于有效治疗和视觉保护的重要性。该研究强调了高质量数据集对于强大分析的重要性。 该研究采用了两阶段深度学习模型,利用ImageNet预训练的ResNet50和四个独立的ResNet对OCT扫描中的AMD生物标志物进行二元分类。第一阶段在体积中定位疾病类别,而第二阶段执行体积级别的分类。该模型在实际世界的OCT数据集上训练,展示了有希望的性能指标,包括ROC-AUC、平衡准确率、准确率、F1分数、敏感性、特异性和马修斯相关系数。该研究指出了使用不同设备的多样化OCT数据集面临的挑战,并讨论了潜在的泛化问题。 基于深度学习的AMD检测和分期系统在实际测试集中展示出有希望的性能,平均ROC-AUC为0.94。在推理时间加入蒙特卡洛丢弃(Monte-Carlo dropout)增强了分类不确定性估计的可靠性。该研究利用了2079只眼睛的3995个OCT体积的精选数据集,利用各种指标评估性能,包括AUC、BACC、ACC、F1分数、敏感性、特异性和MCC。结果凸显了该模型在准确的AMD分类和分期方面的潜力,有助于及时治疗和视觉功能保护。 该研究成功开发了一种基于深度学习的自动AMD检测和分期系统,利用OCT扫描准确地将以黄斑为中心的3D体积分成四个类别:正常、iAMD、GA和nAMD。与基线方法相比,这种深度学习模型在性能上显示出可比或更好的表现,并带有B扫描级别疾病定位的额外好处。 进一步研究可以提高深度学习模型在各种OCT设备上的泛化能力,考虑对Cirrus和Spectralis等扫描仪进行适应性调整。应探索域漂移适应方法,以应对与特定数据集训练相关的限制,确保在各种信噪比情况下的强大性能。该模型对于回顾性AMD发病检测的潜力可以扩展,实现对纵向数据集的自动标记。在实际筛查环境中应用不确定性估计并探索该模型在检测除AMD之外的其他疾病生物标志物方面的潜力,这是未来研究的有希望的方向,有助于在更广泛的人群中进行疾病筛查。

Leave a Comment

三种方式生成化智能可加强网络安全

人工分析师已经无法有效地抵御网络安全攻击的日益速度和复杂性。数据量太大了,无法通过手工筛查。 生成型人工智能,是我们这个时代最具变革性的工具,可以实现一种数字柔道的效果。它让公司能够将对抗压倒他们的数据的力量转化为使其防御更强大的力量。 企业领导人似乎已经准备好抓住眼前的机会。在一项最新调查中,首席执行官表示网络安全是他们三大最关注的问题之一,并认为生成型人工智能是一项主导技术,能够带来竞争优势。 生成型人工智能既带来风险,也带来好处。一篇早期的博客介绍了开始保护企业人工智能的六个步骤。 以下是生成型人工智能增强网络安全的三种方式。 从开发人员开始 首先,给开发人员一个安全的副驾驶。 每个人在安全领域都起着一定的作用,但并非每个人都是安全专家。因此,这是最具战略性的开始之一。 增强安全的最佳位置是在开发人员编写软件的前端。一个以安全专家为训练对象的人工智能助手可以帮助开发人员确保其代码符合安全最佳实践。 这种人工智能软件助手可以通过提供先前审查过的代码进行每天学习。它可以从以前的工作中汲取经验,帮助开发人员遵循最佳实践。 NVIDIA正在创建一个用于构建这样的副驾驶或聊天机器人的工作流程,用到了NVIDIA NeMo的组件,它是一个用于构建和自定义大型语言模型的框架。 无论用户是自定义他们自己的模型还是使用商业服务,一个安全助手只是将生成型人工智能应用于网络安全的第一步。 分析漏洞的代理 其次,让生成型人工智能帮助导航已知软件漏洞的茫茫大海。 每时每刻,公司都必须在成千上万个补丁中选择以减轻已知的攻击行为。这是因为每一行代码都可能有几十个甚至几千个不同的软件分支和开源项目的根源。 进一步分析漏洞的LLM可以帮助确定公司应该首先实施哪些补丁。它是一种特别强大的安全助手,因为它可以阅读公司使用的所有软件库,以及其支持的功能和API的策略。 为了测试这个概念,NVIDIA构建了一个用于分析软件容器的流水线,以查找漏洞。这个代理以高精确度确定需要修补的区域,将人工分析师的工作速度加快了4倍。 结论明确,现在是将生成型人工智能作为漏洞分析的第一响应者的时候了。 填补数据空白 最后,利用LLM来帮助填补网络安全领域不断扩大的数据空白。 由于敏感性太高,用户很少分享有关数据泄露的信息。这使得预测攻击变得困难。 这就是LLM的用武之地。生成型人工智能模型可以创建合成数据,模拟以前未曾出现的攻击模式。这样的合成数据还可以填补训练数据的空白,以便机器学习系统学习如何在攻击发生之前防御。 进行安全模拟 不要等待攻击者展示可能性。创建安全模拟来了解他们可能如何尝试渗透企业防御。…

Leave a Comment