Press "Enter" to skip to content

58 search results for "Amazon Bedrock"

“Q4 Inc. 如何利用 Amazon Bedrock、RAG 和 SQLDatabaseChain 解决数值和结构化数据集挑战,构建他们的问答聊天机器人”

此文章由Q4 Inc.的Stanislav Yeshchenko共同撰写企业们越来越多地采用检索增强生成(RAG)作为构建问答聊天机器人的主流方法我们继续看到源于现有数据集种类的新挑战这些数据集通常是数值和文本数据的混合,有时是结构化的,…

Leave a Comment

利用实体提取、SQL查询和具有Amazon Bedrock的代理来提升基于RAG的智能文档助手的能力

近年来,由于生成式人工智能(Generative AI)的快速发展,尤其是通过指导微调和强化学习等训练技术引入的大语言模型(LLMs)的性能改善,会话型人工智能(Conversational AI)取得了长足的进步在正确提示的情况下,这些模型可以进行连贯的对话,而无需任何特定任务的训练数据[…]

Leave a Comment

亚马逊宣布Amazon Bedrock已正式上市

“遇见亚马逊基石,这是一项在生成AI领域引起变革的重大发展,亚马逊承诺将重塑人工智能领域的格局在四月份宣布的消息中,亚马逊基石是一个全面托管的服务,它引入了最先进的AI模型,无缝集成到您的组织运营中在这一宣布中,数据和…酒店副总裁Swami Sivasubramanian 表示:

Leave a Comment

使用Amazon DocumentDB在Amazon SageMaker Canvas中构建无代码机器学习解决方案

我们很高兴地宣布亚马逊文档数据库(兼容MongoDB)与亚马逊SageMaker Canvas的集成正式发布,这使得亚马逊文档数据库的客户可以在不编写代码的情况下构建和使用生成型人工智能和机器学习(ML)解决方案亚马逊文档数据库是一个完全托管的本地JSON文档数据库,使操作关键业务变得简单且具有成本效益

Leave a Comment

提高在Amazon SageMaker Studio上的生产力:介绍JupyterLab Spaces和生成AI工具

亚马逊SageMaker Studio为机器学习开发提供了一系列完全托管的集成开发环境(IDE),包括JupyterLab、基于Code-OSS(Visual Studio Code开源版)的代码编辑器和RStudio它为每个ML开发步骤提供了最全面的工具集,从数据准备到建立、训练[…]

Leave a Comment

使用 QLoRA 对 Llama 2 进行微调,并在 Amazon SageMaker 上部署,配备 AWS Inferentia2

在这篇文章中,我们展示了使用参数高效微调 (PEFT) 方法对 Llama 2 模型进行微调,并将微调后的模型部署在 AWS Inferentia2 上我们使用 AWS Neuron 软件开发工具包 (SDK) 来访问 AWS Inferentia2 设备,并从其高性能中受益然后,我们使用一个由 […] 提供支持的大型模型推断容器

Leave a Comment

How Getir通过使用Amazon SageMaker和AWS Batch将模型训练时间缩短了90%

这是一篇由Nafi Ahmet Turgut, Hasan Burak Yel和Damla Şentürk从Getir共同撰写的嘉宾文章成立于2015年,Getir已经将自己定位为极速杂货配送领域的开拓者这家创新科技公司通过“几分钟即送”的引人入胜的服务,革新了最后一公里配送领域随着一个…

Leave a Comment

使用Amazon SageMaker Clarify和MLOps服務,以大規模操作化LLM評估

在过去的几年中,大型语言模型(LLMs)因其杰出的能力而崭露头角,能够以前所未有的熟练度理解、生成和操纵文本它们的潜在应用领域从对话代理人到内容生成和信息检索,承诺着彻底改变所有行业然而,在确保负责任和…

Leave a Comment

用无代码Amazon SageMaker Canvas在Salesforce Data Cloud上民主化机器学习

本文由Salesforce Einstein AI产品总监Daryl Martis共同撰写这是一系列讨论Salesforce Data Cloud与Amazon SageMaker集成的第三篇文章在第一部分和第二部分中,我们展示了Salesforce Data Cloud和Einstein Studio与SageMaker的集成如何使企业能够访问他们的数据

Leave a Comment

使用Amazon Personalize实时实施个性化推荐

在基本层面上,机器学习(ML)技术通过对数据的学习来进行预测企业使用ML技术提供的个性化服务来提升客户体验这种方法使企业能够利用数据来获得可操作的见解,并帮助增加收入和品牌忠诚度亚马逊个性化服务利用机器学习加速您的数字化转型,[…]

Leave a Comment

新 – 现在在Amazon SageMaker Canvas中提供无代码生成AI能力

上线于2021年的Amazon SageMaker Canvas是一个视觉化、点对点服务,允许业务分析师和市民数据科学家使用现成机器学习(ML)模型,并构建自定义ML模型生成准确的预测,无需编写任何代码现成模型使您能够从文本、图像和文档中立即获取洞察力

Leave a Comment

使用Amazon SageMaker JumpStart用Falcon创建一个HCLS文档摘要应用程序

健康保健和生命科学(HCLS)的客户正在采用生成式人工智能作为一种工具,以从他们的数据中获得更多的价值使用情况包括文档总结,以帮助读者聚焦文档的关键点,并将非结构化文本转化为标准化格式,以突出重要属性由于独特的数据格式和严格的监管要求,客户们正在……

Leave a Comment

使用生成式人工智能和Amazon Kendra,在企业规模上自动化生成图像标题和搜索

亚马逊肯德拉是一款由机器学习(ML)驱动的智能搜索服务亚马逊肯德拉重新构想了网站和应用程序的搜索功能,使您的员工和客户能够轻松找到他们正在寻找的内容,即使这些内容分散在组织内的多个位置和内容存储库中亚马逊肯德拉支持多种文档类型[…]

Leave a Comment

使用QLoRA在Amazon SageMaker Studio笔记本上交互式地微调Falcon-40B和其他LLMs

对大型语言模型(LLM)进行微调可以让您调整开源基础模型,以在特定领域的任务中实现更好的性能在本文中,我们讨论了使用Amazon SageMaker笔记本进行微调最先进的开源模型的优势我们利用了Hugging Face的参数高效微调(PEFT)库和通过bitsandbytes支持交互式微调的量化技术

Leave a Comment

通过检索增强生成,提升您的稳定扩散提示

文字到图像生成是一门快速发展的人工智能领域,应用广泛,包括媒体与娱乐、游戏、电子商务产品可视化、广告与营销、建筑设计与可视化、艺术创作和医学影像等各个领域稳定扩散是一种文字到图像模型,让您能够在几秒钟内创建高品质的图片在十一月份[…]

Leave a Comment

使用亚马逊床岩和亚马逊转录,利用生成式人工智能生成记录摘要

会议记录是协作的重要组成部分,但往往容易被忽略在主持讨论、仔细倾听和记录笔记之间,关键信息很容易溜走而未被记录下来即使记录了笔记,它们可能会杂乱无章或难以辨认,使其变得毫无用处在本文中,我们将探讨如何使用亚马逊[…]

Leave a Comment

2024年使用的前5个生成式人工智能框架

介绍 欢迎来到引人入胜的生成式人工智能(Generative AI)框架的领域,这是创新和创造力在数字化领域的交织。生成式人工智能的力量不仅仅是一种技术奇迹。它是一种塑造我们与机器互动和产生内容方式的动态力量。想象一下:只需要一个提示,就能创造故事、图像,甚至整个世界。这不是魔法,而是人工智能的进化。 生成式人工智能不仅仅是一组算法;它是由在线数据的广阔领域驱动的创造力强大动力。想象一下,能够提示人工智能生成文本、图像、视频、声音和复杂的代码。随着GenAI的进一步学习和发展,它在各个行业的应用不断增加。秘密在于训练-复杂的数学和大量的计算能力相结合,教会人工智能预测结果,模仿人类的行为和创造。 进入生成式人工智能世界的旅程涉及解开其工作原理背后的神秘。神经网络如何识别模式以产生新内容?哪些基础模型支持诸如ChatGPT和DALL-E之类的工具?与我们一同探索生成式人工智能的复杂性,探索其用途和功能。介绍这一技术革命前沿的五个框架。这是一段机器给想象力注入生命的旅程,可能性无限,就像他们在数字画布上绘制一样。 提升你的生成式人工智能水平,学习实践。检查我们的 GenAI顶尖计划! 什么是生成式人工智能框架? 生成式人工智能框架是GenAI的支柱,为机器创建多样且与上下文相关的内容提供了基础设施。这些框架作为AI模型(如LLMs、GANs、VAEs)的指导原则,使它们能够理解庞大数据集中的模式。组织可以利用无监督和半监督学习方法的力量,通过使用这些框架来训练AI系统。这种训练为从自然语言处理到图像生成等任务奠定了基础,使机器能够解释提示。 LangChain LangChain是Harrison Chase的创新软件开发框架,专为GenAI专业人员量身打造。它有助于重塑日常任务和项目的格局。LangChain通过强调利用大型语言模型(LLMs)来提升AI系统的能力,简化了应用程序创建过程。基于MIT许可证的开源原则下,LangChain引入了一个标准化的接口,包括代理、内存和链。 LangChain的代理扮演重要角色,使LLMs能够做出明智的决策,为创建动态聊天机器人、游戏和各种应用铺平道路。内存功能非常宝贵,允许在对LLMs进行调用时保留状态。对于像聊天机器人这样的应用程序来说,这一功能成为了保持连贯对话或存储先前查询结果的基石。链条不仅限于单个LLM调用,还便于序列的编排-这对于构建摘要工具、问答系统和需要多方交互的不同应用程序来说是一个福音。 LangChain的数据增强生成功能增加了更多的灵活性,使GenAI专业人员能够根据外部数据生成文本。从编写引人入胜的新闻文章到制作产品描述,这个框架增强了内容生成的能力。 LangChain在各种应用中展示了其能力,包括客户服务和教育的聊天机器人,娱乐和研究的游戏,以及商业和教育的摘要工具和问答系统。它涵盖了各种应用,如内容生成、翻译、代码生成、数据分析和医学诊断。在GenAI专业人员的工具包中,LangChain推动着生成式人工智能不断演进的创新和效率。 LlamaIndex LlamaIndex成为GenAI专业人员武器库中至关重要的工具。它为自定义数据和GPT-4等LLMs之间提供了一个无缝的桥梁。这个创新的库通过简化与数据和LLMs一起工作的复杂过程,显著增强了GenAI专业人员的日常工作和项目。LlamaIndex的多功能实用性在不同阶段得到展现,在数据摄取、结构化、检索和集成方面提供了不可或缺的支持。 首先,LlamaIndex在从各种来源(如API、数据库、PDF或外部应用程序)“摄取”数据方面表现出色,充当勤奋的数据收集者。然后,它进入“构建”阶段,在这个阶段中,它以一种LLMs轻松理解的方式组织数据。这些组织良好的数据成为“检索”阶段的基础,在这个阶段中,LlamaIndex在需要时便于找到和提取正确的数据。最后,它简化了“集成”过程,实现了与各种应用框架的无缝合并数据。 LlamaIndex由三个主要组件组成:用于收集的“数据连接器”,用于组织的“数据索引”和作为翻译器的“引擎”(LLMs)。这种设置使GenAI专业人员在检索增强生成(RAG)方面拥有强大的能力,将LLM的实力与自定义数据相结合。查询引擎、聊天引擎和代理等模块化构建提升了交互到对话水平,实现了动态决策。无论是创建问答系统、聊天机器人还是智能代理,LlamaIndex都是GenAI专业人员的不可或缺的盟友,为RAG企业提供坚实的基础,并通过LLMs和定制数据来超级增强应用。 Jarvis 微软的JARVIS平台引领人工智能创新,为GenAI专业人员提供无与伦比的工具来增强日常工作。JARVIS与ChatGPT和t5-base等AI模型进行协作,实现统一和先进的结果。作为任务控制器,JARVIS简化了工作流程,最大限度地发挥了各种开源大型语言模型(LLMs)在图像、视频、音频等方面的潜力。 JARVIS集成了多模态人工智能,将GPT-4的功能扩展到文本和图像处理。该平台连接到互联网,访问一个强大的模型网络,包括t5-base、stable-diffusion 1.5、Facebook的bart-large-cnn和Intel的dpt-large等20个强大的模型。JARVIS使用户可以提交复杂的多任务查询,指导不同的模型无缝协作执行复杂的任务。例如,生成一张有关外星人入侵的图像,并在此过程中创作相关的诗歌,这个流程变得简化,ChatGPT规划任务,选择适当的模型并执行任务,展示了JARVIS的高效性和协作潜力。 虽然JARVIS的能力是无可否认的突破性,但其使用也需要考虑资源。JARVIS需要至少16GB的VRAM和约300GB的存储空间来运行各种模型。JARVIS需要大量的资源,无法在普通个人电脑上本地运行。然而,尽管有这些限制,JARVIS标志着人工智能发展的重要飞跃,革新了人工智能能力和协作的领域。它重塑了GenAI专业人员与利用人工智能技术的交互方式的潜力是显而易见的,使其成为人工智能发展演进中的关键工具。 Amazon…

Leave a Comment

评估大型语言模型的质量和责任

与生成性人工智能相关的风险已经广为人知毒性、偏见、泄漏个人身份信息以及幻觉都会对组织的声誉和客户信任造成负面影响研究表明,不仅偏见和毒性风险会从预训练的基础模型转移到特定任务的生成性人工智能服务中,而且通过为特定任务调整基础模型还会产生如下影响[…]

Leave a Comment

宣布新的工具和能力,以实现负责任的人工智能创新

生成AI的快速增长带来了有前景的新创新,同时也带来了新的挑战这些挑战包括一些生成AI之前普遍存在的问题,比如偏见和可解释性,以及基础模型(FMs)独有的幻觉和有害性等新问题在AWS,我们致力于负责任地发展生成AI,[…]

Leave a Comment

NVIDIA为一些最大的亚马逊Titan基础模型提供训练能力

关于大型语言模型的一切都是巨大的——巨大的模型在数千个NVIDIA GPU上的大规模数据集上进行训练。 这对于追求生成式人工智能的公司来说会带来很多大的挑战。 NVIDIA NeMo是一个构建、定制和运行LLM的框架,有助于克服这些挑战。 亚马逊网络服务的一支由经验丰富的科学家和开发人员组成的团队正在创建Amazon Titan为Amazon Bedrock提供基础模型,后者是一项基于基础模型的生成式人工智能服务,并在过去的几个月中一直使用NVIDIA NeMo。 “与NeMo合作的一个重要原因是它的可扩展性,它具有优化功能,可以在高GPU利用率下运行,并使我们能够扩展到更大的集群,以便我们能够更快地训练和交付模型给我们的客户,”亚马逊网络服务的高级应用科学家Leonard Lausen说。 融入大规模环境 NeMo中的并行技术使得大规模LLM的训练更加高效。与AWS的弹性适配器相结合,可以将LLM分散到多个GPU上加速训练。 EFA提供了一个UltraCluster网络基础设施,可以直接连接超过10,000个GPU,并通过NVIDIA GPUDirect绕过操作系统和CPU。 这种组合使得AWS的科学家们能够提供优秀的模型质量,这是仅依赖数据并行化方法无法实现的。 适用于各种规模的框架 “NeMo的灵活性,”Lausen说,“使得AWS能够根据新的Titan模型、数据集和基础设施的特点来定制训练软件。” AWS的创新包括从Amazon Simple Storage Service(Amazon S3)到GPU集群的高效流处理。“由于NeMo基于像PyTorch Lightning这样的流行库构建,这些改进很容易融入其中,这些库标准化了LLM训练流程组件,”Lausen说。 AWS和NVIDIA的目标是吸取他们的合作所学,为顾客带来像NVIDIA…

Leave a Comment

推出三款基于NVIDIA GPU的亚马逊EC2实例

亚马逊弹性计算云(Amazon EC2)加速计算产品系列为您的人工智能(AI)、机器学习(ML)、图形和高性能计算(HPC)工作负载提供了最广泛的加速器选择我们很高兴地宣布,该产品系列将通过三个全新的实例来扩展,这些实例采用了最新的NVIDIA GPU:亚马逊EC2 P5e实例搭载[…]

Leave a Comment

搭载FM技术能力的AWS AI服务增强版 (Dāzài FM jìshùnénglì de AWS AI fúwù zēngqiáng bǎn)

人工智能(AI)继续改变我们的业务方式并为客户提供服务AWS提供一系列预训练的AI服务,为您的应用程序提供即用智能在这篇文章中,我们将探讨新的AI服务能力以及如何使用基础模型(FMs)进行增强我们将重点关注以下重大更新[…]

Leave a Comment

Can't find what you're looking for? Try refining your search: