Press "Enter" to skip to content

四海吧 Posts

这篇AI论文介绍了子句编码器:一种对文本进行细粒度语义表示的对比学习上下文嵌入AI模型

来自宾夕法尼亚大学、华盛顿大学和腾讯AI实验室的研究人员提出了一种子句编码器,这是一种对比学习的上下文嵌入模型,它为文本序列中的原子命题生成不同的嵌入。与传统的句子嵌入不同,它通过学习不同含义单元的上下文嵌入,专注于细粒度的语义表示。该模型在检索支持事实和识别条件语义相似性等任务中具有很好的效果。子句编码器与句子编码器具有相似的推理成本和空间复杂度,展示了其实用性。 子句编码器通过为文本序列中的原子命题生成不同的嵌入,专注于细粒度的语义表示。应用包括检索支持事实和识别条件语义相似性。精细级别的有效编码有望影响文本评估、归属和事实估计。受到文本归属需求的影响,子句编码器设计具有潜在的跨文档信息链接应用。 该研究挑战了将整个文本序列编码为定长向量的常见做法,引入了子句编码器。子句编码器架构在跨文档信息链接方面具有潜在应用,为具有不同信息粒度的任务提供了灵活性。该研究旨在评估子句编码器在检索支持事实和识别条件语义相似性等任务中的实用性。 该模型为文本序列中的不同原子命题生成不同的上下文嵌入。使用二进制标记掩码作为输入,基于Transformer架构将子句编码器应用于检索支持事实和识别条件语义相似性。尽管研究承认英文文本的实验局限性,但提出了更广泛的语言适用性潜力,并引入了创建子句编码器训练数据的自动过程。 子句编码器在识别相同上下文中命题之间的微妙语义差异方面优于句子编码器,提高了精确性和召回率。子句编码器在原子事实检索方面表现与文档级和句子级模型相当,展示了增强的记忆能力。研究强调了子句编码器在不同粒度的多向量检索中的潜力,表明其在各种检索任务中的灵活性。 该架构在跨文档信息链接和具有不同粒度的各种任务方面具有潜力。原子事实检索评估显示了子句编码器在检索支持命题方面的实用性。子句编码器提高了多向量检索的召回率,突出了其在各种检索任务中的潜在优势。该研究强调了子句编码器在文本归属中解决粒度挑战的重要性。 研究表明,所展示的发现可能为进一步的长篇文本评估、归属和事实估计研究铺平道路。研究承认在英文文本方面实验规模有限,提出了对多语种子句编码器的未来研究,并指出了对其他语言的潜在扩展。研究强调了对持续探索的需求,希望该工作将激发子句编码器应用的进展,进一步推动该领域的研究。

Leave a Comment

加州大学伯克利分校和中国上海交通大学的研究人员引入了“重新表述样本”的概念,以重新思考语言模型的基准和污染问题

大型语言模型的复杂性越来越高,评估也变得更加困难。社区在相对短的时间内产生了许多基准,但基准分数并不总是与实际性能相对应。一些证据表明,许多流行的基准测试可能使用了用于微调和预训练的有缺陷的数据集。 尽管普遍认为这是一个重要问题,但找出污染源一直很困难。N-gram叠加和嵌入相似性搜索都得到了广泛应用。字符串匹配在GPT-4、PaLM和Llama等最新创新中被广泛使用,用于N-gram叠加污染的检测。然而,其精确度略低。嵌入相似性搜索会查看先前训练模型(如BERT)的嵌入,以发现相关且可能被污染的样本。然而,在决定相似性水平时在召回率和精确度之间找到平衡可能很困难。此外,模型训练中有一种新兴趋势,即使用由LLM(例如GPT-4)生成的合成数据,使用字符串匹配来识别污染可能更加困难。 为了研究去污方法,美国加州大学伯克利分校和上海交通大学进行了一项新研究,引入了“重新表述样本”的概念,其语义与原始样本相同,但很难通过现有的污染测试来识别。LLM通过将测试样本翻译和改写成另一种语言生成重新表述样本。研究人员证明,如果将这种重新表述的示例用于训练,则产生的模型对过度拟合非常敏感,并且可以在测试基准上实现极高的性能。使用精细校准的13B Llama模型可以与GPT-4在所有基准测试中的性能匹敌,同时通过N-gram叠加作为污染而不被察觉。这种行为在广泛使用的基准测试如MMLU、GSM-8k和HumanEval中观察到。因此,识别重新表述样本的能力至关重要。 研究人员解释了传统去污技术的缺陷,并提出了一种新颖的基于LLM的方法。为了确定任何前k个样本是否与测试实例过于相似,他们首先应用嵌入相似性搜索来找到与所讨论的测试样本最相似的模型。结果证明,他们建议的LLM去污方法优于传统技术。他们在用于微调和预备训练的各种热门数据集上测试了他们的去污器。同时还发现,GPT-3.5的合成数据集CodeAlpaca中有相当一部分重新表述样本来自HumanEval(确切地说,占12.8%)。这暗示了在使用LLM生成的假数据进行训练时可能存在污染的潜在可能。 研究人员建议社区为使用公共基准测试来评估LLM建立更全面的去污流程。他们希望创建新的一次性测试,如Codeforces和Kaggle竞赛,以公平评估LLM并克服这些基本问题。

Leave a Comment

“自动聚类的启动:探索多智能体框架的基础知识”

介绍 踏上一段激动人心的旅程,探索多智能体框架的基础知识,并进入软件开发的未来,这就是“自动产生:探索多智能体框架基础”的主题。在OpenAI的ChatGPT之后,一个名为LLM(LLM agent)的专业领域正在经历前所未有的飞速发展,彻底改变了AI代理开发。从自动化繁琐任务到解决动态决策中的挑战,LLM代理正在挑战曾经被认为不可能的界限。 随着我们进入空间计算时代,设想一个世界,计算机与现实无缝融合,AI代理的重要性变得至关重要。想象一下通过语言和手势指令代理完成任务,具有无与伦比的推理和行动能力。然而,我们正处于AI代理革命的黎明期,见证着新的基础设施、工具和框架的诞生,这些赋予代理应对越来越复杂任务的能力。剪裁多智能体聊天系统的先进框架Autogen,在我们的探索中扮演重要的角色。 在这篇文章中,让我们一起揭开AI代理革命的早期阶段的细节,深入了解Autogen的能力,并探索如何让这些智能实体焕发生机。 学习目标 了解什么是LLM代理 学习Autogen是什么,并探索使用Autogen构建代理的基础知识 使用Autogen和OpenAI API构建代理 探索LLM代理的现实世界应用案例 本文是《数据科学博文马拉松》的一部分。 什么是LLM代理? 传统的语言模型在许多方面都表现出色,例如翻译、问答等。然而,它们的知识和能力是有限的。这就像是一名泥瓦工在修筑房子时缺少工具一样。然而,有观察发现,LLM代理在给予必要的工具后能够进行推理和行动。大多数LLM代理对世界的了解有限,但我们可以通过提示将它们与自定义来源的信息进行增强。 我们可以通过两种方法实现这一目标:检索增强生成和LLM代理。在检索增强生成中,我们通过自定义的硬编码流程将信息提供给模型。但对于代理来说,基于其推理,LLM代理将利用其掌握的工具。例如,带有Serp工具的GPT-4将浏览互联网并相应地回答,或者在可以访问雅虎金融工具时,它可以获取和分析股票表现。因此,LLM模型、工具和用于推理和采取行动的框架的组合就是AI代理的概念。 构建LLM代理的平台和工具急剧增长。Autogen就是其中之一。让我们了解一下Autogen是什么,以及如何使用它来创建LLM代理。 什么是Autogen? Autogen是微软推出的一款面向构建稳定多智能体应用的开源工具。该工具从头开始设计,充分考虑到多智能体之间的通信。它允许我们创建LLM应用程序,其中多个代理互相对话以找到解决方案。这些代理是高度可定制的,意味着我们可以引导它们执行特定的任务。它还与Langchain工具生态系统完美集成,这意味着我们可以利用现有的Langchain工具来增强我们的代理。 为了完成任务,Autogen提供了不同类型的代理,包括: 助理代理:负责完成编码、审核等任务 用户代理:如其名称所示,这些代理代表最终用户行动。这些代理将人类引入代理循环,以引导对话 可教授代理:该代理被配置为易于教授。我们可以向代理提供LLM中缺失的显式信息 我们在大多数情况下只需要一个助理代理和用户代理进行配置。所以,让我们看看如何使用 Autogen 配置代理。RAG…

Leave a Comment

易于应用集成的前五种稳定扩散API

介绍 在人工智能时代,API是解决企业面临的重要挑战之一,即将AI模型整合到软件和应用中时的高计算要求的一种解决方案。这种解决方案被称为应用程序编程接口(API)。API可以帮助你摆脱维护的麻烦,让你专注于业务逻辑和用户体验。这意味着任何人都可以利用这些API构建和商业化应用。本文将探讨稳定扩散API,这是一组专注于图像生成的生成式AI模型,这些模型对于各种应用程序至关重要。 我们首先将看到Segmind API,这是一个非常高效和有效的选择。这些API已经彻底改变了开发人员、设计师和创作者处理视觉内容生成的方式。我们将探索一些排名前五的稳定扩散API,重点介绍它们的特点、用途、定价等等。 学习目标 深入了解稳定扩散模型。 了解稳定扩散模型的基础知识,包括它们的应用。 了解现代软件开发中的API。 探索API在简化软件和应用开发中的关键作用。 本文是数据科学博文马拉松的一部分。 了解稳定扩散模型 什么是稳定扩散模型? 稳定扩散模型是一类专注于生成高质量图像的生成式AI模型。这些模型旨在生成具有各种应用的逼真、高分辨率图像。它们的特点是稳定和可靠,对于图像合成、风格转移和数据增强等任务非常有帮助。 稳定扩散模型使用扩散过程生成图像,从而逐渐向图像添加噪声,直到演化为复杂而连贯的输出。这个过程确保生成的图像具有高质量并展现出细节。 什么是API? API,或应用程序编程接口,是一组规则和协议,允许一个软件应用程序与另一个应用程序、服务或平台的功能或数据进行交互。API是中介,实现软件之间的集成。 在软件开发中,API为开发人员提供了一种访问功能、服务或数据的方式,包括云服务、数据库或AI模型等源,而无需理解底层复杂性。这简化了开发过程,加速了功能丰富应用的创建。 API可以采用多种形式,包括RESTful API、gRPC API和WebSocket API,每种都针对特定的用例。在现代软件中,它们发挥着关键作用,使开发人员能够利用第三方服务和功能的强大能力,同时专注于核心应用程序逻辑。 前五稳定扩散API 让我们来看看我们列表上排名靠前的稳定扩散API,首先是用户友好的Segmind API。 1.…

Leave a Comment

南开大学和字节跳动的研究人员推出了一种名为ChatAnything的新型人工智能框架,专注于生成LLM-增强人物形象

南开大学和字节跳动的研究人员提出了一个名为ChatAnything的新型框架,旨在以在线方式生成基于大型语言模型(LLM)的角色的人形化人物形象。目标是仅根据文本描述创建具有自定义视觉外观、个性和语调的人物形象。研究人员利用LLM的上下文学习能力使用精心设计的系统提示生成个性。他们提出了两个创新概念:声音的混合 (MoV) 和扩散物质的混合 (MoD),用于多样化的语音和外观生成。 MoV使用预定义音调的文本到语音(TTS)算法,根据用户提供的文本描述选择最匹配的音调。MoD结合了文本到图像生成技术和说话头算法,简化了生成说话对象的过程。然而,研究人员观察到当前模型生成的拟人化对象常常被预训练的面部标志检测器无法检测到,导致面部动作生成失败。为了解决这个问题,他们在图像生成过程中引入像素级引导,以注入人脸标志。这个像素级注入显著提高了面部标志检测率,实现了基于生成的语音内容的自动面部动画。 本论文讨论了大型语言模型(LLMs)及其上下文学习能力的最新进展,将其定位于学术讨论的前沿。研究人员强调了需要一个框架来生成具有自定义个性、声音和视觉外观的LLM增强人物形象。对于个性生成,他们利用LLM的上下文学习能力,使用文本到语音(TTS) API创建了声音模块池。声音的混合模块(MoV)根据用户文本输入选择音调。 使用最新的说话头算法解决了由语音驱动的说话动作和表情的视觉外观问题。然而,研究人员在使用扩散模型生成的图像作为说话头模型的输入时遇到了挑战。只有30%的图像能够被最先进的说话头模型检测到,表明分布不对齐。为了弥合这一差距,研究人员提出了一种零样本方法,在图像生成阶段注入面部标志。 提出的ChatAnything框架由四个主要模块组成:基于LLM的控制模块、人像初始化器、文本到语音模块的混合以及动作生成模块。研究人员结合了扩散模型、声音变换器和结构控制,创建了一个模块化和灵活的系统。为了验证引导扩散的有效性,研究人员创建了一个带有不同类别提示的验证数据集。他们使用预训练的面部关键点检测器评估面部标志检测率,展示了他们提出方法的影响。 研究人员介绍了一个全面的框架ChatAnything,用于生成具有拟人特征的LLM增强人物形象。他们解决了面部标志检测方面的挑战,并提出了创新的解决方案,在验证数据集中呈现了有希望的结果。这项工作为将生成模型与说话头算法整合以及提高数据分布对齐性的未来研究开辟了新的途径。

Leave a Comment

奥特曼回来了:OpenAI首席执行官在董事会纷争中取得胜利

在一次令人震惊的事件中,前OpenAI首席执行官Sam Altman计划在最近几天的势均力敌的董事会政变后重新夺回他的职位。这场动荡导致Altman于上周五被驱逐,却见证了故事情节的意外转折。 Altman在董事会混乱中的复兴 OpenAI的混乱走势迎来了一次戏剧性的转变,前首席执行官Sam Altman成功地进行了谈判,确保了他的回归。公司在内部纷争中披露了Altman回归的“原则性协议”。 新的董事会组成标志着治理重置 作为最初协议的一部分,提出了一个新的董事会,由Bret Taylor,Larry Summers和Adam D’Angelo组成。这个临时董事会的主要任务是审核和任命多达9位成员的正式董事会。旨在重置OpenAI的治理结构。 微软在重塑后的OpenAI中的角色 随着微软有望获得扩展董事会的席位,Altman的回归暗示着两个实体之间的战略合作伙伴关系。包括Altman和微软首席执行官Satya Nadella在内的重塑领导层,凸显了OpenAI的关键时刻。 尽管有正式公告,但关于“原则性协议”的细节仍然扑朔迷离。当被问及该术语时,OpenAI没有提供额外评论,为Altman的回归的细节留下了猜测的空间。 员工反叛和董事会的弱点 在Altman被驱逐期间,史无前例的员工反叛展示了内部的动荡。对于Altman被解职的缺乏明确解释使董事会成员受到攻击,导致关键成员Ilya Sutskever支持Altman。 我们的观点 当这个引人注目的公司事件尘埃落定后,OpenAI面临着关键时刻。Altman的回归带来了期待和不确定性的混合,引发了关于该公司未来方向和导致这种意外转折的动力学的问题。

Leave a Comment

这项人工智能研究介绍了BOFT 一种新的通用微调人工智能方法,用于基础模型的适应性调整

“`html 在人工智能领域,尤其是大型语言模型的引入,最近取得了许多发展,为几乎所有领域铺平了AI的道路。ChatGPT和Stable Diffusion等基础模型具有显著的泛化能力。然而,由于参数数量的增加,从头开始训练这些模型是一个挑战。 微调模型的方法非常简单,因为它不涉及任何额外的推理延迟。然而,传统微调技术难以理想地维护权重矩阵的关系信息,这些技术具有较低的学习速率。研究人员一直在研究正交微调(OFT)技术,该技术通过使用相同正交矩阵对同一层中的神经元进行转换,在微调过程中保持神经元之间的成对角度。虽然这种技术具有很大的潜力,但也存在同样的局限性,即正交矩阵的高维度导致了庞大的可训练参数数量。 为了解决这个挑战,一组研究人员提出了正交蝴蝶(BOFT)方法,这是一种独特且最新的方法,解决了正交微调中的参数效率问题。BOFT受到Cooley-Tukey快速傅里叶变换技术中蝴蝶结构的启发,通过将其与许多分解稀疏矩阵组装在一起,生成稠密的正交矩阵。为了将正交矩阵表示为稀疏矩阵的乘积,需要以计算时间为代价来节省空间。 研究团队指出,通过将其比作一个网格结构图上的信息传输问题,可以理解这种技术,这使得可以使用多种保持表达能力的稀疏矩阵分解技术,同时限制可训练参数的数量。BOFT受到了Cooley-Tukey方法的蝴蝶图的启发,其主要创新在于蝴蝶分解过程。 借助这种分解,可以创建一个含有O(log d)个稀疏矩阵的稠密矩阵,每个稀疏矩阵具有O(d)个非零元素。BOFT可以通过保证每个稀疏矩阵的正交性,以O(d log d)的参数数量提供高效的正交参数化,从而显著减少了原始OFT参数化的数量。BOFT提供了一个通用的正交微调框架,并包含OFT。 研究团队将BOFT与OFT中的块对角结构进行了比较,并且已经证明为了降低有效可训练参数,BOFT和OFT都给正交矩阵增加了稀疏性。但对于下游应用,BOFT的蝴蝶结构提供了正交群矩阵和单位矩阵之间更平滑的插值的较小假设类别。为了强调低秩矩阵和稀疏矩阵都是实现参数效率的结构化矩阵的家族,该结构化方法已与LoRA中的低秩结构进行了比较。 研究人员总结了他们的主要贡献如下: 研究了正交微调中参数效率的问题,以提高大型模型对下游任务的适应性。 引入了一种用于信息传输的新框架,将构建参数高效稠密正交矩阵的挑战转化为网格结构图内的问题。 引入了一种参数效率的正交微调方法-正交蝴蝶(BOFT)。 讨论了矩阵分解以及BOFT为什么能够显著降低可训练参数,同时保持表达能力和训练稳定性的理论解释。 BOFT在适应应用中表现出色,表明其具有卓越的参数效率和泛化能力,优于目前的技术水平。 “`

Leave a Comment

斯坦福研究人员在大型语言模型的准确性方面创新:自动优先排名和NLP(自然语言处理)进展以降低错误率

来自斯坦福大学和北卡罗来纳大学教堂山分校的研究人员解决了由语言模型产生的事实不准确的音调,也称为幻觉。在无需人工标注的情况下,研究人员对语言模型进行了微调,以增强在开放式生成环境中的事实准确性。利用自然语言处理的最新创新,他们采用了通过与外部知识库一致性评估事实性的方法,并使用直接偏好优化算法进行微调。该方法显著改善了Llama-2的事实性,大大降低了生成传记和医学问题回答方面的事实错误率,达到了7B规模。 各种策略旨在减轻语言模型中的事实错误,包括提示、内部表示扰动和基于检索的方法。在冲突解决和事实保持方面存在挑战,尤其是随着模型规模的增大。FactScore变种采用了训练期间的检索来解决推理时间复杂度的问题。通过微调实现的基于偏好的学习能够有效减少错误事实。该研究引入了一种无参考方法,利用语言模型的不确定性估计真实性。从自动生成的偏好对中学习事实性成为一种省时高效的方法,展示了不需要人工干预的潜力性改进。 该研究侧重于无限制生成环境,提出了一种通过微调语言模型来改善事实性的方法,无需人工标注。他们利用最新的自然语言处理创新,包括通过外部知识库判断事实性和使用直接偏好优化算法。该方法涉及从自动生成的事实性偏好排序中学习,与基准数据集上的其他策略相比,生成传记和回答医学问题的事实错误率显着降低。 本研究在判断事实性方面结合了与外部知识库一致性或模型置信度评分。 使用直接偏好优化算法进行微调,侧重于超越监督模仿的目标。它提出使用现有的检索系统或新颖的无检索方法,从自动生成的事实性偏好排序中学习。评估包括FactScore等自动度量标准,人工评估者的观点,以及与推理时间干预和对比层解码等方法的比较。 该方法证明了从自动生成的事实性偏好排序中学习以提高语言模型事实性的有效性。经过微调的Llama-2模型在生成传记方面的事实错误率降低了58%,在回答医学问题方面降低了40%,与RLHF或解码策略相比。 人工评估者认为FactTune-FS模型优于SFT模型。 GPT-4评估和FactScore评级显示高相关性,表明FactTune-FS在减少事实错误方面取得了成功。 该研究提出了改善语言模型事实性的有效策略,着重于长篇生成。 探索了两种方法:利用外部知识进行基于参考的真实性估计和利用模型的不确定性进行无参考估计。 用任一方法微调语言模型始终能减少错误事实。 无参考方法为事实性改进提供了可扩展的自我监督策略,无需金标准参考语料库。 实验结果显示出有希望的研究方向,建议进一步探索结合事实性调整方法并将方法扩展至更大模型。 未来的研究建议探索事实性调整与现有方法的组合,例如事实性调整DOLA实验。 建议进一步研究将事实性增强的解码技术与事实性调整过程相结合以提高事实性。 通过评估不同方法的组合效果,如事实性调整和推理时间干预,可以提供关于补充机制的见解。 建议研究较简单的提取原子事实的方法,并将事实性调整方法扩展到更大模型,如GPT-4。

Leave a Comment

商汤研究提出Story-to-Motion:一种从长文本生成人类动作和轨迹的新人工智能方法

人工智能正步入几乎每个行业。从一个故事中创造出自然的人类动作有着彻底改变动画、视频游戏和电影行业的能力。其中一项最困难的任务是故事到动作的转换,当角色必须在不同区域移动并执行某些动作时就会出现这种情况。基于详细的书面描述,这项任务需要高级运动语义控制和处理轨迹的低级控制之间的平滑集成。 尽管已经付出了很多努力来研究文本到动作和角色控制,但还没有找到适当的解决方案。现有的角色控制方法有很多局限性,因为它们不能处理文本描述。即使是当前的文本到动作方法也需要更多的位置约束,导致生成不稳定的动作。 为了克服所有这些挑战,一组研究人员提出了一种独特的方法,该方法在生成轨迹方面非常有效,并生成了受输入文本影响的可控且无限长的动作。该方案包括以下三个主要组成部分。 文本驱动的动作调度:现代大型语言模型从长篇的文字描述中获取文本、位置和持续时间的序列,并将它们用作文本驱动的动作调度器。这一阶段确保生成的动作基于故事,并包含有关每个动作位置和长度的细节。 文本驱动的动作检索系统:将运动匹配和运动轨迹和语义的约束相结合,创建了一个全面的动作检索系统。这确保生成的动作满足预期的语义和位置属性,同时还包括文本描述。 渐进式遮罩变换器:设计了一个渐进式遮罩变换器,用于解决转场动作中频繁出现的问题,如脚滑动和不寻常的姿态。这个元素对于提高生成的动作质量、产生过渡更流畅、外观更逼真的动画至关重要。 研究团队表示,该方法已在三个不同的子任务上进行了测试:动作融合、时间动作组合和轨迹跟踪。与早期的运动合成技术相比,评估结果显示在每个方面性能都有所提升。研究人员总结了他们的主要贡献如下。 从长篇文字描述生成全面动作引入了轨迹和语义,从而解决了故事到动作的问题。 提出了一种名为文本驱动的运动匹配的新方法,使用广泛的文本输入提供精确和可定制的运动合成。 在轨迹跟踪、时间动作组合和动作融合子任务中,该方法优于现有技术,这已通过在基准数据集上进行的实验证明。 总之,该系统在从文字叙述中综合生成人类动作方面无疑是一个重大的进步。它为故事到动作工作所带来的问题提供了完整的解决方案。它无疑将对动画、游戏和电影行业产生颠覆性的影响。

Leave a Comment

使用Amazon SageMaker JumpStart进行大规模的文本嵌入和句子相似度检索

在本文中,我们展示了如何使用SageMaker Python SDK进行文本嵌入和句子相似度的使用方法句子相似度涉及在通过LLM将两个文本片段转换为嵌入后,评估它们之间的相似程度,这是像检索增强生成(RAG)这样的应用的基础步骤

Leave a Comment

亚马逊音乐如何利用SageMaker与NVIDIA优化机器学习训练和推理性能及成本

在亚马逊音乐的动态流媒体世界中,每一次搜索歌曲、播客或播放列表都抱有一个故事、一种情绪或一股等待揭示的情感洪流这些搜索成为探索新事物、珍贵经历和持久记忆的门户搜索栏不仅仅是找歌曲的工具;[…]

Leave a Comment

NVIDIA与盖尼特合作,利用生成式人工智能加速药物研发

Roche集团的成员Genentech正在开创性地使用生成型人工智能来发现和开发新的治疗方法,并以更高效的方式向患者提供治疗。 Genentech,这家生物技术先驱与NVIDIA之间的新合作旨在通过将两家公司的专家汇聚在一起,优化和加速Genentech专有的算法,从而改变发现和开发新药物的方式。 NVIDIA将与Genentech合作,加速在NVIDIA DGX Cloud上进行这些模型,该平台提供由NVIDIA云服务提供商合作伙伴托管的专用AI超级计算机实例和软件。 Genentech计划使用NVIDIA BioNeMo,该平台能够使生物技术公司以规模化方式定制模型,并将BioNeMo云应用程序接口直接整合到计算药物发现工作流程中。 BioNeMo现已作为训练服务提供,它是一个领域特定的平台,简化、加速和扩展了计算药物发现的生成型人工智能应用程序。它使研究人员能够在DGX Cloud上对最先进的模型进行预训练或微调。 这次合作最初的重点将放在优化Genentech的药物发现AI模型上,以实现“实验室循环”框架。目标是使研究人员能够理解复杂的生物分子模式和关系,真正颠覆药物研发,提高研发的成功率,并赋予科学家为患者和更广泛的医疗生态系统带来乘法效益,而不是线性或加法效益。 Genentech研究与早期发展执行副总裁Aviv Regev表示:“我们与NVIDIA的合作建立在长期以来在技术方面取得成功并在最初并不显而易见的领域部署技术的基础上。我们是第一家利用分子生物学进行药物发现和开发的生物技术公司,改变了世界。我们开创了抗体治疗的范式。现在,我们将人工智能、实验室和临床结合在一起,以揭示海量数据中无法访问的模式,并设计实验来测试这些模式。与NVIDIA的合作,引入生成型AI,有能力快速推动发现和设计改进全球患者生活的治疗方法。” 通过计算简化药物发现 目前,药物发现和开发是一个耗时、复杂且昂贵的过程。预测新药物的药靶是困难的,同样成功将分子开发为潜在的治疗药物也是如此。人工智能可以发挥转变性的作用,因为生成型和其他人工智能模型可以通过在大规模数据集上进行训练,帮助科学家快速识别潜在的药物分子和相互作用。 对于Genentech来说,使用人工智能有助于弥合实验室实验和计算算法之间的差距。 该公司的研发团队gRED已经在多个领域使用人工智能进行了重要工作,以发现和开发新的治疗方法,并更多地了解生物学和疾病的基本构建块。 Genentech和NVIDIA的团队将共同努力,优化Genentech定制开发的模型,以缩短药物发现和开发这一耗时的过程,并取得更大的成功。 将人工智能纳入循环 Genentech的“实验室循环”是一个迭代框架,用于生成和探索具有预测特性的分子设计。它旨在使用实验数据来建立生成型计算模型,并更好地优化未来的分子设计。NVIDIA将帮助Genentech通过加速训练和推断Genentech的药物发现模型来优化其框架。 通过这种合作,NVIDIA的人工智能专家将获得有关药物发现和开发中与AI相关的挑战的见解。NVIDIA计划利用这些见解来改进其BioNeMo平台和其他平台,以进一步适应生物技术行业使用的模型的要求。 NVIDIA的医疗保健副总裁Kimberly Powell表示:“人工智能在加速药物发现和开发方面可以发挥转变性的作用,就像在医疗保健和生命科学的其他许多领域一样。 NVIDIA与Genentech共同开发和实施的人工智能模型和算法使我们能够快速迭代和发现洞见,从而推动科学创新。” 订阅NVIDIA医疗资讯。

Leave a Comment

揭示感官人工智能:实现人工通用智能(AGI)的路径

在不断演进的人工智能领域中,有两个重要领域处于创新的前沿:感知型人工智能和人工通用智能(AGI)的追求感知型人工智能作为一个引人入胜的领域,探索让机器能够解释和处理感官数据,模拟人类感官系统它涵盖了广泛的领域[…]

Leave a Comment