Press "Enter" to skip to content

21 search results for "Amazon Elastic Compute Cloud"

提高在Amazon SageMaker Studio上的生产力:介绍JupyterLab Spaces和生成AI工具

亚马逊SageMaker Studio为机器学习开发提供了一系列完全托管的集成开发环境(IDE),包括JupyterLab、基于Code-OSS(Visual Studio Code开源版)的代码编辑器和RStudio它为每个ML开发步骤提供了最全面的工具集,从数据准备到建立、训练[…]

Leave a Comment

使用 QLoRA 对 Llama 2 进行微调,并在 Amazon SageMaker 上部署,配备 AWS Inferentia2

在这篇文章中,我们展示了使用参数高效微调 (PEFT) 方法对 Llama 2 模型进行微调,并将微调后的模型部署在 AWS Inferentia2 上我们使用 AWS Neuron 软件开发工具包 (SDK) 来访问 AWS Inferentia2 设备,并从其高性能中受益然后,我们使用一个由 […] 提供支持的大型模型推断容器

Leave a Comment

Amazon EC2 DL2q实例现已全面推出,用于经济高效的高性能人工智能推断

这是一篇由来自高通AI的A.K Roy所撰写的客座文章亚马逊弹性计算云(Amazon EC2)DL2q实例由高通AI 100标准加速器提供动力,可用于在云端高效部署深度学习(DL)工作负载它们还可用于开发和验证DL工作负载的性能和准确度

Leave a Comment

使用@remote装饰器在Amazon SageMaker上微调Falcon 7B和其他LLMs

今天,生成式人工智能模型涵盖了各种任务,包括文本摘要、问答以及图像和视频生成为了提高输出的质量,采用了一些方法,如N-Short学习、提示工程、检索增强生成(RAG)和微调微调允许您调整这些生成式人工智能模型,以在您的领域特定的任务上实现更好的性能

Leave a Comment

打破语言障碍:使用Amazon Translate翻译应用程序日志,实现无缝支持

这篇文章解决了开发人员和支持团队在应用程序日志以非英语语言呈现时面临的挑战,这使得他们很难进行调试和提供支持所提出的解决方案使用Amazon Translate自动翻译CloudWatch中的非英语日志,并提供了在您的环境中部署该解决方案的逐步指南

Leave a Comment

在Amazon SageMaker Studio上托管Spark UI

亚马逊SageMaker提供了几种运行Apache Spark分布式数据处理作业的方式,Apache Spark是一种流行的用于大数据处理的分布式计算框架您可以通过将SageMaker Studio笔记本和AWS Glue交互式会话连接起来,在Amazon SageMaker Studio中交互式地运行Spark应用程序,并使用无服务器集群运行Spark作业通过交互式会话,您可以[…]

Leave a Comment

“Patsnap如何在Amazon SageMaker上使用低延迟和成本的GPT-2推理”

这篇博客文章是由帕特斯纳智能语言处理高级工程师白子龙共同撰写,并包含一个简介当你在谷歌或亚马逊上搜索某些内容时,你很可能已经熟悉了自动完成建议功能尽管这些场景中的搜索词通常是我们日常生活中常见的关键词或表达方式,[…]

Leave a Comment

将SaaS平台与Amazon SageMaker集成,以实现基于机器学习的应用程序

Amazon SageMaker是一个端到端的机器学习(ML)平台,具有广泛的功能,可以导入、转换和测量数据中的偏差,并使用一流的计算和服务进行模型的训练、部署和管理,例如Amazon SageMaker Data Wrangler、Amazon SageMaker Studio、Amazon SageMaker Canvas、Amazon SageMaker Model Registry、Amazon SageMaker Feature Store等

Leave a Comment

使用QLoRA在Amazon SageMaker Studio笔记本上交互式地微调Falcon-40B和其他LLMs

对大型语言模型(LLM)进行微调可以让您调整开源基础模型,以在特定领域的任务中实现更好的性能在本文中,我们讨论了使用Amazon SageMaker笔记本进行微调最先进的开源模型的优势我们利用了Hugging Face的参数高效微调(PEFT)库和通过bitsandbytes支持交互式微调的量化技术

Leave a Comment

使用Amazon SageMaker上的OpenChatkit模型构建自定义聊天机器人应用程序

开源的大型语言模型(LLMs)变得越来越流行,使研究人员、开发人员和组织能够访问这些模型以促进创新和实验这鼓励开源社区的合作,以贡献于LLMs的发展和改进开源LLMs提供了模型架构、训练过程和训练数据的透明度,这使得研究人员能够理解[…]

Leave a Comment

简洁与准确相遇:使用AWS Trainium进行高性价比的GPT NeoX和Pythia模型训练

大型语言模型(或LLM)已成为日常对话的话题它们被迅速采用的证据是从“Facebook的4.5年”到“ChatGPT的短短2个月”的时间内就达到了1亿用户的数量生成式预训练变压器(GPT)使用因果自回归更新[…]

Leave a Comment

扩展基于亚马逊SageMaker的数百种模型的基础模型推断-第一部分

随着粉底模型(FM)的民主化越来越普遍,并且对AI增强服务的需求不断增加,软件即服务(SaaS)提供商正在寻求使用支持多租户的机器学习(ML)平台,以便为他们组织内部的数据科学家和外部客户提供服务越来越多的公司意识到使用FM来生成[…]的价值

Leave a Comment

推出三款基于NVIDIA GPU的亚马逊EC2实例

亚马逊弹性计算云(Amazon EC2)加速计算产品系列为您的人工智能(AI)、机器学习(ML)、图形和高性能计算(HPC)工作负载提供了最广泛的加速器选择我们很高兴地宣布,该产品系列将通过三个全新的实例来扩展,这些实例采用了最新的NVIDIA GPU:亚马逊EC2 P5e实例搭载[…]

Leave a Comment

使用亚马逊AI内容审查服务的安全图像生成和传播模型

生成式人工智能技术正在迅速改进,现在能够根据文本输入生成文本和图像稳定扩散(Stable Diffusion)是一个文本到图像模型,使您能够创建逼真的应用程序您可以通过Amazon SageMaker JumpStart轻松使用稳定扩散模型从文本生成图像以下是输入文本和…的示例

Leave a Comment

使用AWS专门构建的加速器,将您的机器学习工作负载的能耗降低高达90%

机器学习(ML)工程师传统上关注模型训练和部署成本与性能之间的平衡越来越多的客户逐渐将可持续性(能源效率)作为额外目标这一点非常重要,因为训练ML模型,然后使用训练好的模型进行预测(推理)可能是高能耗的任务此外,更多…

Leave a Comment

AWS Inferentia2 在 AWS Inferentia1 的基础上进行了升级,其吞吐量提高了4倍,延迟降低了10倍

机器学习(ML)模型的规模——包括大型语言模型(LLMs)和基础模型(FMs)——每年都在迅速增长,这些模型需要更快、更强大的加速器,特别是用于生成式人工智能AWS Inferentia2 从基础设计上就旨在提供更高的性能,同时降低 LLM 和生成式人工智能推断的成本在此[…]

Leave a Comment

使用GraphStorm快速处理大规模企业图的机器学习:一种新的解决方案

我们很高兴地宣布,GraphStorm 0.1已经正式开源发布它是一个低代码企业级图机器学习(ML)框架,可在数天内构建、训练和部署复杂的企业级图形ML解决方案,而非数月使用GraphStorm,您可以构建直接考虑数十亿之间的关系或交互结构的解决方案

Leave a Comment

使用DeepSpeed加速PyTorch,利用基于Intel Habana Gaudi的DL1 EC2实例训练大型语言模型

训练拥有数十亿个参数的大型语言模型(LLM)可能会具有挑战性除了设计模型架构外,研究人员还需要设置先进的分布式训练技术,如混合精度支持、梯度累积和检查点对于大型模型,训练设置更加具有挑战性,因为在单个…中可用的内存有限

Leave a Comment

Can't find what you're looking for? Try refining your search: