Press "Enter" to skip to content

32 search results for "专有数据"

“Q4 Inc. 如何利用 Amazon Bedrock、RAG 和 SQLDatabaseChain 解决数值和结构化数据集挑战,构建他们的问答聊天机器人”

此文章由Q4 Inc.的Stanislav Yeshchenko共同撰写企业们越来越多地采用检索增强生成(RAG)作为构建问答聊天机器人的主流方法我们继续看到源于现有数据集种类的新挑战这些数据集通常是数值和文本数据的混合,有时是结构化的,…

Leave a Comment

2024年的17个预测:从贫穷到财富,从披头士狂热到国家宝藏

向一边去,韦伯斯特:今年企业发现了许多候选词来评选年度词汇。紧随其后的是诸如“生成式人工智能”和“生成式预训练变压器”之类的术语,整个行业都将注意力转向变革性的新技术,如“大型语言模型”和“检索增强生成”(RAG)。 一开始,“生成式人工智能”只是一个较小的关注点,但最后却以耀眼姿态收场。许多公司正在迅速利用其能够处理文本、语音和视频的能力,产生革新性的内容,从而彻底改变生产力、创新力和创造力。 企业正在顺应这一趋势。根据麦肯锡公司的数据,像OpenAI的ChatGPT这样的深度学习算法,再加上企业数据的进一步训练,每年可以为63个商业用例带来相当于2.6万亿至4.4万亿美元的价值。 然而,管理大量的内部数据往往被认为是扩展人工智能的最大障碍。一些AI领域的NVIDIA专家预测,2024年将成为联络朋友的一年——与云服务提供商、数据存储和分析公司以及其他掌握处理、优化和高效部署大数据的技能的公司建立伙伴关系和合作。 大语言模型是这一切的核心。NVIDIA专家表示,LLM研究的进展将越来越多地应用于商业和企业应用领域。通过几乎任何平台,诸如RAG、自主智能代理和多模态互动等AI功能将变得更加易于获取和部署。 听取NVIDIA专家对未来一年的预测: MANUVIR DAS企业计算副总裁 一刀切不适用于所有情况:定制化即将进入企业。企业将不会只有一两个生成式人工智能应用,它们会有数百个定制应用,使用适合于业务不同部分的专有数据。 一旦投入生产,这些定制化的LLM将具备RAG功能,将数据源与生成式人工智能模型连接起来,以获得更准确、更明智的响应。像Amdocs、Dropbox、Genentech、SAP、ServiceNow和Snowflake这样的领先公司已经在构建使用RAG和LLM的全新生成式人工智能服务。 开源软件引领潮流:得益于开源预训练模型,解决特定领域挑战的生成式人工智能应用将成为企业运营策略的一部分。 一旦公司将这些先导模型与私有或实时数据结合起来,他们就可以开始在整个组织中看到加速的生产力和成本效益。从基于云计算和人工智能模型铸造服务到数据中心、边缘和桌面,AI计算和软件将在几乎任何平台上变得更加易于获取。 现成的人工智能和微服务:生成式人工智能促使应用程序编程接口(API)端点的采用增加,这使得开发人员能够构建复杂的应用程序更加容易。 到2024年,软件开发工具包和API将升级,开发人员将使用生成式人工智能微服务(例如RAG作为服务)来定制现成的AI模型。这将帮助企业充分发挥以智能助手和摘要工具为代表的以AI驱动的生产力的潜力,这些工具可以获取最新的业务信息。 开发人员将能够直接将这些API端点嵌入到他们的应用程序中,而无需担心维护支持这些模型和框架所需的基础设施。最终用户将能够体验到更直观、更具响应性和更符合需求的应用程序。 IAN BUCK超大规模和高性能计算副总裁 国家财富:人工智能将成为新的太空竞赛,每个国家都希望建立自己的卓越中心,推动研究和科学的重大进展,提高国内生产总值。 只需要几百个加速计算节点,各国就能迅速构建高效、高性能、百亿亿次量级的AI超级计算机。政府资助的生成式AI卓越中心将通过创造新的工作岗位和建设更强大的大学项目推动国家经济增长,培养下一代科学家、研究人员和工程师。 量子飞跃:企业领导者将以两个关键驱动因素启动量子计算研究项目:利用传统AI超级计算机模拟量子处理器的能力以及混合经典量子计算的开放统一开发平台的可用性。这使得开发人员可以使用标准编程语言而不需要定制的、专门的知识来构建量子算法。 曾经在计算机科学中被认为是一个隐晦的领域,随着企业加入学术界和国家实验室追求材料科学、制药研究、亚原子物理和物流的快速进展,量子计算探索将变得更加主流。 KARI BRISKI副总裁,AI软件 从试错到致富:随着企业采用这些AI框架,对试错增强生成技术(RAG)将会有更多的讨论。 当企业培训LLM来构建生成式AI应用程序和服务时,当模型在某种用例下没有足够准确、相关的信息时,RAG被广泛视为解决不准确或荒谬回答的方法。…

Leave a Comment

Snorkel AI的首席执行官兼联合创始人 Alex Ratner – 面试系列

亚历克斯·拉特纳是Snorkel AI的首席执行官兼联合创始人,该公司诞生于斯坦福人工智能实验室Snorkel AI通过将手动的人工智能开发流程转变为程序化的解决方案,使人工智能开发变得快速而实用Snorkel AI利用自有数据和知识,使企业能够开发适用于其独特工作负载的人工智能

Leave a Comment

NVIDIA BioNeMo在AWS上实现了药物发现的生成式人工智能

领先的制药和技术生物公司的研究人员和开发人员现在可以通过亚马逊网络服务(AWS)轻松部署NVIDIA Clara软件和服务,加速医疗保健领域的发展。 该计划于AWS re:Invent上宣布,为使用AWS云资源的医疗保健和生命科学开发人员提供了灵活性,可以集成NVIDIA加速的产品,例如NVIDIA BioNeMo——一种用于药物发现的生成式人工智能平台,即将在AWS上推出NVIDIA DGX Cloud,目前可通过AWS ParallelCluster集群管理工具和Amazon SageMaker机器学习服务使用。 全球数千家医疗保健和生命科学公司使用AWS。现在,他们将能够使用BioNeMo访问专有数据构建或定制数码生物学基础模型,并使用NVIDIA GPU加速的AWS云服务器来扩大模型的培训和部署。 包括Alchemab Therapeutics、Basecamp Research、Character Biosciences、Evozyne、Etcembly和LabGenius在内的生物技术创新者已经是AWS的用户,并且已经在使用BioNeMo进行生成式人工智能加速的药物发现和开发。这种合作使他们能够更快速地扩展云计算资源,以开发基于生物分子数据的生成式人工智能模型。 此次宣布扩展了NVIDIA在AWS上已有的面向医疗保健的产品——用于医学成像工作流程的NVIDIA MONAI和加速基因组学的NVIDIA Parabricks。 AWS新推出:NVIDIA BioNeMo推进生成式人工智能的药物发现 BioNeMo是一个针对数码生物学生成式人工智能的领域专用框架,包括预训练的大型语言模型 (LLMs)、数据加载器和优化的训练配方,可以帮助加速计算机辅助药物发现的目标识别、蛋白质结构预测和药物候选筛选。 药物发现团队可以利用他们的专有数据使用BioNeMo构建或优化模型,并在基于云的高性能计算集群上运行这些模型。 其中的一个模型ESM-2是一款功能强大的LLM,支持蛋白质结构预测,几乎能够线性扩展至256个NVIDIA H100…

Leave a Comment

AWS reInvent 2023生成AI和ML指南

是的,AWS reInvent季节已经到来,一如既往,这个时候应该去的地方是拉斯维加斯!你已经在日历上做了标记,预订了酒店,甚至购买了机票现在你只需要一些有关生成AI和机器学习(ML)的指导,以便在第十二届reInvent大会上参加相关的会议虽然生成AI在之前的活动中出现过,但今年我们将把它提升到一个新的水平除了在主题演讲中发布多个令人兴奋的新闻之外,我们的讲座中的大部分都将以某种形式涉及到生成AI,所以我们可以真正称之为“生成AI和机器学习”专题在这篇文章中,我们将为您介绍该专题的组织方式,并突出几个我们认为您会喜欢的会议虽然我们的专题侧重于生成AI,但许多其他专题也有相关的会议在浏览会议目录时,请使用“生成AI”标签来查找它们

Leave a Comment

OpenAI面临需求激增:暂停ChatGPT Plus注册

OpenAI(开放AI),人工智能领域的先驱,面临着需求激增的压力,因此暂时停止了新的订阅ChatGPT Plus高级服务的注册。首席执行官山姆·奥尔特曼(Sam Altman)在DevDay之后的使用激增上表示,其容量存在挑战,并强调致力于确保卓越的用户体验。 暂停和用户通知 奥尔特曼在X(前身为Twitter)上分享了DevDay后的激增超出了他们的容量,导致ChatGPT Plus新用户注册的暂时停止。在这一暂停期间,像先进的GPT-4 Turbo和自定义GPT等功能都将暂停提供。尽管如此,用户被鼓励在应用程序内进行签约,以确保在订阅重新开放时迅速获得增强功能的访问。 DevDay的影响和GPT创新 需求激增归因于OpenAI在2023年的DevDay上发布的生成式预训练转换器(GPT)。这些GPT赋予开发者和企业以强大的能力,实现各种应用,包括在Canva等平台上进行图形设计。会议展示了超过5,000个GPT,让用户可以轻松地构建模型,无需编码。 容量之外的挑战 – 停机和GPT-5开发 OpenAI不仅面临容量问题的挑战,最近ChatGPT的停机也暗示了可能的分布式拒绝服务(DDoS)攻击。对攻击来源和动机的调查正在进行中。与此同时,该公司正在秘密进行GPT-5的研发,奥尔特曼透露其训练需要大量增加数据量。数据将从公共数据集和来自私人公司的专有数据中提取。 我们的观点 在OpenAI应对需求激增的同时,ChatGPT Plus注册临时暂停反映了确保无缝用户体验的承诺。通过GPT-4 Turbo的创新进展以及对GPT-5的期待,OpenAI坚定不移地致力于推动人工智能的边界。用户热切期待订阅重新开放时,人工智能领域将继续发展,OpenAI在不久的将来将有更多的突破性发展。

Leave a Comment

“NVIDIA 加速为企业定制生成型人工智能模型的开发”

如今,免费的开源大型语言模型(LLMs)的景象就像是一家任君选择的自助餐厅,满足企业的需求。对于开发者来说,这种丰富多样可能会让他们在构建定制的生成型人工智能应用程序时感到不知所措,因为他们需要满足独特的项目和业务需求,包括兼容性、安全性以及用于训练模型的数据。 NVIDIA AI Foundation Models 是一系列精心策划的企业级预训练模型,为开发者在企业应用中引入定制的生成型人工智能提供了快速的起步。 NVIDIA 优化的基础模型加速创新 NVIDIA AI Foundation Models 可以通过简单的用户界面或 API 直接从浏览器进行体验。此外,这些模型可以通过 NVIDIA AI Foundation Endpoints 进行访问,以便在企业应用中测试模型的性能。 可用的模型包括领先的社区模型,如 Llama 2、Stable Diffusion XL…

Leave a Comment

见识CommonCanvas:一个使用创意共享图片训练而成的开放扩散模型

近年来,人工智能在文本到图像生成方面取得了显著进展。将书面描述转化为视觉表达具有许多应用,从创作内容到帮助盲人和讲故事。研究人员面临两个重要障碍,即缺乏高质量数据和与从互联网上提取的数据集相关的版权问题。 在最近的研究中,一个研究团队提出了建立一个遵循创意共享许可(CC)的图像数据集,并使用该数据集来训练能够胜过稳定扩散2(SD2)的开放式扩散模型的想法。为了做到这一点,需要克服以下两个主要障碍。 缺乏标题:虽然高分辨率的CC照片是开放许可的,但它们经常缺乏文本描述,即文本到图像生成模型训练所必需的标题。在缺少标题的情况下,模型很难理解和生成基于文本输入的视觉内容。 CC照片的稀缺性:与像LAION这样的较大专有数据集相比,CC照片虽然是重要资源,但却更为稀缺。这种稀缺性提出了一个问题,即是否有足够的数据可以成功训练高质量的模型。 该团队使用了迁移学习技术,并使用预训练模型创建了出色的合成标题,并将它们与精心选择的CC照片进行匹配。这种方法简单且利用了模型从照片或其他输入生成文本的能力。他们通过编制一个照片和虚构标题的数据集来实现这一目标,该数据集可以用来训练将文字转化为视觉内容的生成模型。 为了应对第二个挑战,该团队创建了一个既节约计算资源又节约数据的训练方案。与SD2模型训练所需的最初利用了大约7000万个示例相比,只需要约3%的数据即可达到相同的质量。这表明存在足够的CC照片可用于高质量模型的有效训练。 该团队使用数据和有效的训练程序训练了几个文本到图像模型。这些模型共同被称为CommonCanvas家族,它们标志着生成模型领域的重大进展。它们可以生成与SD2在质量上相媲美的视觉输出。 CommonCanvas家族中最大的模型是在比LAION数据集小不到3%的CC数据集上训练的,其性能在人类评估中可与SD2相媲美。尽管受到数据集大小限制和使用人工生成的标题的影响,但该方法在生成高质量结果方面是有效的。 该团队总结了他们的主要贡献: 团队使用一种名为”电报”的迁移学习方法为初始时没有标题的创作共享(CC)照片生成了出色的标题。 他们提供了一个名为CommonCatalog的数据集,其中包括约7000万张在开放许可下发布的CC照片。 CommonCatalog数据集被用来训练一系列潜在扩散模型(LDM)。这些模型共同被称为CommonCanvas,在定性和定量上与SD2基线相比具有竞争力。 该研究应用了许多训练优化技术,使得SD2基线模型的训练速度快了近三倍。 为了促进合作和更多的研究,该团队在GitHub上免费提供了训练好的CommonCanvas模型、CC照片、人工生成的标题和CommonCatalog数据集。

Leave a Comment

亚马逊宣布Amazon Bedrock已正式上市

“遇见亚马逊基石,这是一项在生成AI领域引起变革的重大发展,亚马逊承诺将重塑人工智能领域的格局在四月份宣布的消息中,亚马逊基石是一个全面托管的服务,它引入了最先进的AI模型,无缝集成到您的组织运营中在这一宣布中,数据和…酒店副总裁Swami Sivasubramanian 表示:

Leave a Comment

企业如何提高多语言产品分类器的准确性?这篇人工智能论文提出了LAMM:一种针对训练数据有限语言的主动学习方法,旨在增强分类准确性

通过利用不同语言共享的表示形式,跨语言学习已被认为可以提高自然语言处理模型在数据有限的低资源语言(LRL)上的准确性。然而,高资源语言(HRL)和低资源语言(LRL)的准确性存在显著差异,这与LRL的预训练数据相对稀缺有关,即使对于最先进的模型也是如此。在专业环境中,常常会对语言级准确性设定目标。这时候,像神经机器翻译、音译和类似数据上的标签传播等技术非常有用,因为它们可以用于合成增强现有训练数据。 这些方法可以用来增加训练数据的数量和质量,而无需采用代价过高的手动注释。由于机器翻译的局限性,即使翻译通常会提高LRL的准确性,但它可能需要赶上商业目标。 亚马逊的研究团队提出了一种通过使用主动学习有选择地收集标记数据来提高低资源语言(LRL)准确性的方法。虽然以前已经研究过多语言数据的主动学习,但大部分研究集中在为单一语言训练模型上。为此,他们正在努力完善一种能够有效地在语言之间进行翻译的单一模型。这种方法被称为语言感知主动学习多语言模型(LAMM),类似于已经显示主动学习可以在使用单一模型的情况下提高模型在各种语言上的性能的工作。然而,这种方法不提供专门针对和提高LRL准确性的手段。由于他们坚持为已经超过准确性目标的语言获取标签,今天最先进的主动学习算法在满足语言级目标至关重要的情况下浪费了手动注释。为了提高LRL的准确性而不对HRL的性能产生负面影响,他们提出了一种基于主动学习的策略来有策略地收集标记数据。建议的策略LAMM可以增加在所有相关语言中实现准确性目标的可能性。 研究人员将LAMM作为具有多个目标的MOP来构建。其目标是选择以下未标记数据的示例: 不确定的(模型对结果没有信心) 来自语言家族,分类器的性能可能优于目标。 亚马逊的研究人员使用典型的基于池的主动学习设置,将LAMM的性能与两个基准进行比较,使用四个多语言分类数据集。其中两个示例是亚马逊评论和MLDoc。亚马逊内部使用了两个多语言产品分类数据集。以下是标准的流程: 最低置信度(LC)收集可能具有最大熵不确定性的样本。 均匀分配(EC),为了填充每种语言的注释预算,收集具有高熵的样本,并将注释预算在语言之间均匀分配。 他们发现LAMM在所有LRL上的表现优于竞争对手,而在HRL上略微不如。使用LAMM时,HRL标签的百分比减少了62.1%,而与LC相比,AUC的准确性仅降低了1.2%。使用四个不同的产品分类数据集,其中两个是公开可用的,另外两个是亚马逊内部使用的专有数据集,他们展示了相对于强大基线,LAMM可以将LRL的性能增加4-11%。

Leave a Comment

德卓与WPP合作,在NVIDIA Omniverse云上构建和部署先进的汽车配置器

中国和德国梅赛德斯-奔驰合资的豪华电动汽车品牌DENZA,与营销和通信巨头WPP以及NVIDIA Omniverse Cloud合作,共同开发并部署其下一代汽车配置器。NVIDIA创始人兼首席执行官黄仁勋在SIGGRAPH上宣布了这一消息。 WPP正在使用Omniverse Cloud平台,该平台用于开发、部署和管理工业数字化应用,以帮助统一汽车制造商高度复杂的设计和营销流程。 Omniverse Cloud使得WPP能够通过Universal Scene Description(USD)整合来自DENZA N7型号电动汽车制造商首选的计算机辅助设计工具的完整设计数据,从而构建出单一、物理准确、实时的DENZA N7数字孪生模型。 USD是一种3D框架,可实现软件工具和数据类型之间的互操作性,用于构建虚拟世界。 新的统一资产流程的实施打破了专有数据孤岛,促进了数据的更好可访问性,并为组织的大型设计团队和利益相关方提供了协作、迭代评审的便利。它使得WPP能够在设计过程的早期阶段就开始进行产品发布活动,从而加快了迭代速度并降低了成本。 使用Omniverse Cloud实现统一资产流程 利用Omniverse Cloud,WPP的团队可以将其自己的OpenUSD支持的设计和内容创建工具(如Autodesk Maya和Adobe Substance 3D Painter)连接到一个新的DENZA N7配置器的流程中。在Omniverse的统一资产流程中,WPP的艺术家团队可以实时迭代和编辑DENZA N7的完整工程数据集的光线跟踪视图,确保虚拟车辆准确地代表实际车辆。 传统的汽车配置器需要预先渲染数十万张图片来表示所有可能的选项和变体。OpenUSD使得WPP能够创建一个数字孪生车型,其中包含了所有可能的变体,而不需要预先渲染图像。 与此同时,WPP的环境艺术家们创建了完全交互式的实时3D虚拟场景。这些场景可以通过实际环境的扫描开始,例如WPP使用其机器狗捕捉的环境,也可以利用供应商(如Shutterstock)的生成式人工智能工具,即刻生成全景HDRi背景,以最大限度地提供个性化的机会。…

Leave a Comment

见到GOAT-7B-社区模型:一种在GoatChat应用收集的数据集上对AI模型Fine-Tuned LLaMA-2 7B模型进行微调的模型

最近,AI研究实验室的科学家们发布了GOAT-7B-Community模型,该模型通过使用GoatChat应用的数据对LLaMA-2 7B模型进行了改进。Meta的LLaMA v2 7B经过微调,成为了最先进的GOAT-7B-Community模型,利用了从GoatChat应用获得的新颖、细粒度的数据集。 “对齐”在创建大型语言模型(LLM)中至关重要。这是一种模型可以拒绝回答其认为不道德或非法的问题的思想,基于其教育和经验。对齐对于道德AI实施至关重要,但也给模型优化带来了新的障碍。 研究人员注意到,通过对齐生成的回答很少提供客户所需的精确细节。这些反应通常更为温和,表明不愿意详细阐述。解决这个问题是至关重要的,如果要构建一个可靠的模型,为问题提供深入和完整的回答。他们发现,对齐过滤器并不能消除所有不当建议。因此,对齐通常会导致丢弃大量的数据集。这相当于案例中总信息的三分之一左右。 鉴于这个问题,研究人员开发了一种新的清理数据集的技术。此外,他们进行了一项受管制的实验,以全面了解对齐回复对模型性能的影响。 科学家们是如何受教的 配备八个A100 NVIDIA GPU的高性能节点为深度学习计算提供了支持。研究人员选择了bfloat16浮点格式和DeepSpeed ZeRO-3优化作为训练过程的基础。他们对模型进行了三次迭代,每隔一个时期保存一次进展。然而,经验证据显示,执行一个时期后,质量开始下降。这促使他们重新思考他们的策略,并选择进行一次训练时期并进行一次中途检查。常用的评估语言模型的标准,如MMLU和BigBench Hard,用于评估GOAT-7B-Community模型。团队目前正在分析所有模型,并将很快发布他们的研究结果。 用途 大语言模型和聊天机器人的研究是GOAT-7B-Community的主要关注点。自然语言处理、机器学习和人工智能的学者和爱好者将发现它特别有用。 限制 尽管具有令人印象深刻的推理能力,该模型仍然存在与其相对较小的规模(7B模型被认为是“小型”LLM)相关的问题。其中最明显的问题是“幻觉”。这些“幻觉”是一个不断阻碍解决的障碍,随着LLM的改进和扩展。 “幻觉”是人工智能研究中非常强调的一个持久性问题。最终目标是开发出能够产生逻辑上正确、符合语法的答案,并忠实于所提供事实的模型。 风险和偏见 由于GOAT-7B-Community模型使用了公共和专有数据进行训练,因此该模型的可靠性不高,可能会返回与现实相悖的结果。因此,GOAT-7B-Community模型可能产生不准确、有偏见甚至令人反感的结果。 主要观察 没有比这更好的免费7B模型。 良好的MMLU结果的关键是多样化和高质量的数据集。 与当前的13B模型相比,7B的表现令人钦佩。 然而,尺寸限制仍然存在。…

Leave a Comment

AI推动的生产力:生成式AI开启了跨行业效率的新时代

2022年11月22日是一个具有里程碑意义的时刻,虽然大部分是虚拟的,但它震动了全球几乎每个行业的基础。 在那天,OpenAI发布了ChatGPT,这是迄今为止最先进的人工智能聊天机器人。这引发了对生成式人工智能应用的需求,这些应用帮助企业更高效地工作,从为消费者提供问题的答案,到加速研究人员在寻求科学突破时的工作,以及更多其他方面。 之前只是尝试过人工智能的企业现在正急于采用和部署最新的应用。生成式人工智能——算法创造新的文本、图像、声音、动画、3D模型甚至计算机代码的能力——正在以超光速发展,改变人们工作和娱乐的方式。 通过使用大型语言模型(LLMs)处理查询,这项技术可以大大减少人们用于搜索和整理信息等手动任务的时间。 利益巨大。据普华永道估计,到2030年,人工智能可能为全球经济贡献超过15万亿美元。而人工智能的采用影响可能超过互联网、移动宽带和智能手机的发明——总和超过。 推动生成式人工智能的引擎是加速计算。它使用GPU、DPU和网络以及CPU,加速应用程序在科学、分析、工程以及消费者和企业用例中的应用。 从药物发现、金融服务、零售和电信到能源、高等教育和公共部门的早期采用者,正在将加速计算与生成式人工智能结合起来,改变业务运营、服务提供和生产力。 点击查看信息图表:生成下一波人工智能转型 药物发现的生成式人工智能 今天,放射科医生使用人工智能来检测医学影像中的异常,医生使用它来扫描电子健康记录以发现患者洞察,研究人员使用它来加速新药的发现。 传统的药物发现是一个资源密集型的过程,可能需要合成5000多种化合物,平均成功率仅为10%。大多数新药候选品要花费十多年的时间才能上市。 研究人员现在使用生成式人工智能模型读取蛋白质的氨基酸序列,并能够在几秒钟内准确预测目标蛋白的结构,而不是几周或几个月。 使用NVIDIA BioNeMo模型,全球生物技术领导者Amgen将为分子筛选和优化定制模型的时间从三个月缩短到几周。这种可训练的基础模型使科学家能够为研究特定疾病创建变体,使他们能够开发针对罕见疾病的靶向治疗。 无论是预测蛋白质结构还是在大型真实世界和合成数据集上安全训练算法,生成式人工智能和加速计算正在开辟研究的新领域,有助于减轻疾病的传播、实现个性化医疗治疗和提高患者的生存率。 金融服务的生成式人工智能 根据最近的一项NVIDIA调查,金融服务行业中的顶级人工智能应用案例是客户服务和深度分析,其中自然语言处理和LLMs用于更好地回答客户的问题并发现投资见解。另一个常见的应用是推荐系统,它们提供个性化的银行体验、优化营销和投资指导。 先进的人工智能应用有助于帮助该行业更好地预防欺诈,并改变银行的方方面面,从投资组合规划和风险管理到合规和自动化。 80%的业务相关信息是以非结构化格式——主要是文本——存在的,这使其成为生成式人工智能的首选。彭博新闻每天发布与金融和投资社区相关的5000篇报道。这些报道代表了一大批非结构化的市场数据,可以用于进行及时的投资决策。 NVIDIA、德意志银行、彭博社和其他机构正在创建基于领域特定和专有数据的LLMs,用于支持金融应用。 财务变形器,或称“FinFormers”,可以学习上下文并理解非结构化金融数据的含义。它们可以驱动问答聊天机器人,概述和翻译金融文本,提供反对方风险的早期预警,快速检索数据并识别数据质量问题。 这些生成式人工智能工具依赖于能够将专有数据集成到模型训练和微调中的框架,集成数据策划以防止偏见,并使用安全措施保持与金融相关的对话。 预计金融科技初创企业和大型国际银行将扩大他们对LLMs和生成式人工智能的应用,开发复杂的虚拟助手为内部和外部利益相关者提供服务,创建超个性化的客户内容,自动化文档摘要以减少手动工作,并分析公共和私人数据的TB级数据以生成投资见解。 零售业的生成式人工智能 随着60%的购物旅程从线上开始,消费者比以往任何时候都更加联网和知识丰富,人工智能已成为帮助零售商满足不断变化的期望并与日益激烈的竞争区分开来的重要工具。…

Leave a Comment

Can't find what you're looking for? Try refining your search: