Press "Enter" to skip to content

使用亚马逊基石的企业人工智能平台

企业GEN-AI平台是什么?

OpenAI发布的ChatGPT向许多企业展示了大型语言模型的巨大潜力和生成AI的强大力量。因此,无论是零售、旅游、医疗保健还是金融等行业的各种规模的公司都在争相采纳生成AI,以提高生产力、促进创新,为客户提供更好的成果和价值。

组织在其生态系统中利用这些强大的AI能力有多种选择,可以通过设计和构建一款强大、可扩展的Gen AI平台来利用这些能力。他们可以设置私有基础设施,用自己公司的领域特定数据对开源模型进行微调。或者他们可以利用供应商的API来访问外部托管的专有封闭模型。利用生成AI解决真实的业务挑战,并将其从原型转化为产生实质性收益的全面实施的可能性是无穷无尽的。公司正在竞相利用这项技术,将最初的激情转化为实际利益。

然而,并不是每种策略都适用于所有组织的各个层面。一种通用的方法可能无法满足某些企业的隐私或合规需求。此外,像金融和医疗保健等高度管制的行业通常需要满足额外的合规和监管要求,而并非所有的AI平台都能满足这些要求。尽管存在这些挑战,但不同行业部门的人工智能负责人始终在追求一些关键的考虑因素,这些因素与他们的生成AI平台保持一致。:

  • 通过确保生成AI应用程序的开发既快速又用户友好,并优先考虑强大的安全措施和数据隐私来简化流程。AI平台中的强大数据安全和治理功能可确保对敏感数据进行保护。这对于隐私和合规性至关重要。
  • 强调采用最高效、成本效益最佳的基础架构用于生成AI,使组织能够在经济上对模型进行训练或微调。这种方法有助于实现可扩展的推理,以支持多样化的业务用例。此外,该平台还应提供与现有公司基础架构和数据集成的能力,以最大化价值。
  • 提供企业级生成AI应用程序,以革新工作流程和提高整体运营效率。
  • 通过定制基础模型(FMs)来利用数据作为独特因素,使其成为与业务、数据和运营的独特方面相关的专家。
  • 获得诸如FINRA或HIPAA合规性等监管认证,以确保基础架构或平台没有数据泄漏,有效解决各种监管要求。
  • 透明的人工智能功能,使公司能够了解技术的运作方式。可解释性建立信任。
  • 强大的内容过滤以避免生成不适当或带有偏见的内容。这对于负责任的AI很重要。

通用的一刀切方法有其局限性。领先的机构寻求与他们的特定要求和优先事项相符的生成AI平台,包括安全性、治理性、透明性和负责任的AI。

为什么我们需要基础模型而不是传统的机器学习模型?

要理解基础模型的好处,可以将其与传统的机器学习模型进行比较。机器学习模型是针对特定数据进行训练以执行狭窄功能的。相反,基础模型是基于多样化的数据进行训练的大规模模型,这使它们适应广泛的下游应用和任务通过微调实现。基础模型的广泛训练使其能够学习语言理解等一般能力,然后可以针对具体用例进行特化。这使基础模型比仅针对一个目的进行训练的狭窄机器学习模型更具灵活性和能力。总之,基础模型是构建许多不同AI应用的更具多功能性的基础,而机器学习模型在新任务的可迁移性方面受到限制。基于大规模、多样化数据训练的基础模型的广泛适用性使其成为寻求在多个领域利用AI的组织的卓越起点。

基于基础模型的生成AI在不同行业和领域具有广泛的用例:

  • 所有行业:聊天机器人和问答系统、文档摘要
  • 金融领域:风险管理和欺诈检测
  • 医疗保健行业:药物开发和个性化医学推荐,协助研究人员完成庞大的重复任务
  • 零售行业:定价和库存优化、基于用户最近购买的产品、产品元数据和描述生成器的产品推荐和品牌分类
  • 能源和公用事业:预测性维护、可再生能源设计

总之,基础模型的生成式人工智能的关键应用包括对话代理程序、风险/欺诈/维护预测系统、优化和个性化推荐、产品和技术的创意设计,以及更多。生成式人工智能的多功能性使得不同行业的公司能够将其能力融入到多样化的业务流程和功能中。

亚马逊基岩如何构建企业生成式人工智能平台的基础

亚马逊基岩是一项新的亚马逊网络服务,允许企业通过 API 轻松利用和定制生成式人工智能模型。现在,企业可以在不必管理复杂的基础设施和维护所需的情况下构建和扩展人工智能应用。亚马逊基岩充当了一个“基础模型即服务”平台,客户可以探索开源和专有模型,找到最符合他们需求的模型。一个重要的优势是无服务器体验,简化了使用公司自己的数据定制基础模型。然后,定制模型可以通过其他亚马逊网络服务工具在组织的基础设施中无缝集成和部署。总之,基岩的目标是通过消除模型管理和基础设施复杂性的障碍,使生成式人工智能的利用更加可行。

亚马逊基岩通过为文本和图片提供方便访问高质量的基础模型,帮助组织更轻松地采用生成式人工智能。它提供了来自多个供应商(包括亚马逊自己的泰坦模型)的开源和专有模型。这样,企业无需自行进行供应商评估,因为亚马逊在其基础设施上运行所有内容。通过处理安全性、合规性和模型服务,基岩消除了企业采用生成式人工智能的关键障碍。企业不再需要构建和维护自己的模型基础设施和能力,而是可以通过简单的 API 利用功能强大的生成式模型,而不必担心底层复杂性。

亚马逊基岩通过以下方式降低企业采用生成式人工智能(包括开源和商业)的障碍:

  1. 只需在Amazon S3上使用几个标记示例即可轻松调整现有开源或专有基础模型,无需进行大规模数据注释或构建数据流程。这简化了定制工作,加快了基于生成式人工智能的新应用开发的速度。
  2. 提供了无服务器、可扩展、可靠和安全的托管服务,使客户能够完全控制和管理自己的数据以进行定制。内置模型访问系统允许管理员控制模型的使用,支持强大的人工智能治理。
  3. 通过 API 与 AWS SageMaker、Lambda、EKS、ECS 和其他AWS服务(如EC2)集成,使开发人员能够轻松构建、扩展和部署人工智能应用程序,无需管理基础设施或高级LLM部署流程。

总之,基岩通过简化定制、与AWS的无缝集成以及给企业完全控制、治理和保护其数据和模型的能力,加速了生成式人工智能的采用过程。这降低了在利用生成式人工智能能力时的风险和价值释放时间。

亚马逊基岩服务简介

登录AWS控制台后,我们需要输入亚马逊基岩来加载该服务。

截至撰写本文时,基岩仅在部分地区提供,并且不断增加新地区的列表。在这里,我将选择美国东部(北弗吉尼亚)。

选择支持的地区后,亚马逊基岩的控制台就会打开。

这是亚马逊基岩的仪表板,可以让您使用模型或控制其他用户对模型的访问。由于我使用的是根用户账户登录,仪表板将显示我作为管理员根用户的所有功能和控制。右侧面板显示了许多熟知的LL<M或FM供应商,例如AI21 Amazon或Anthropic。右侧面板显示了各种可供您通过注入提示来实验模型及其行为的游乐场。 

一个重要的链接是“模型访问”,它提供了控制模型访问的能力。您可以点击该链接访问模型访问库。

模型访问仪表板显示了亚马逊基岩目前提供的所有供应商模型。其中一些模型,比如Anthropic的Claude模型,如果您想访问它们,需要填写一个长表格。其余的模型则相对简单。您需要点击按钮来管理模型访问,显示可编辑的复选框以控制访问。

点击“保存更改”按钮后,访问状态将变为“处理中”。有时,您需要等待超过一个小时或一天,具体时间取决于您要请求访问的模型类型和您的账户类型。

一旦AWS提供了您请求的模型的访问权限,状态将变为“访问已授予”。现在,您可以使用API将模型集成到自己的应用程序中。

我们可以返回到原始仪表盘,并点击“Text”链接来调用文本生成平台,在那里我们可以使用一些提示工程来评估模型,通过从下拉菜单中选择供应商和相应的模型。通过更改右侧面板中显示的配置,也可以自定义模型的响应。 “温度”元素决定模型的输出。温度值越高,模型的响应越具有创造性或动态性。如果值为零,则可以预期模型对于特定的提示、问题或NLP任务产生相同的静态响应。

现在,在该平台上,我们将探索使用相同的文本提示工程来使用不同的模型。首先,我们将探索来自AI21 Labs供应商的Jurrasic模型的输出。我们输入有关MQTT的文本,MQTT是物联网设备中使用的通信模式,并要求模型向12岁的人解释MQTT。绿色文字输出是由温度为0.7的模型Jurrasic -2 Ultra生成的文本。

如果您在底部部分点击“查看API请求”按钮,则显示播放台控制台发送给基础模型的API请求。

来自Cohere的Command模型的响应:

我试图使用Meta的LLama2模型,但一直出错。看起来Amazon仍在努力稳定。

我们将探索使用基于文本提示生成图像的Sytable Diffusion模型。

API请求如下:

集成到GEN AI平台的策略

由于Amazon Bedrock是无服务器组件,因此与该平台的集成是完全无服务器的。 Foundation Model通过REST API对外开放,可以供下游使用,并且AWS提供了Bedrock SDK客户端,任何应用程序都可以使用它来连接Amazon Bedrock。

与AI平台集成的最有效方法涉及利用AWS Lambda,其中IAM策略可以进行配置,以确保正确的访问来查询模型。 AWS SAM是设计和构建与BedRock连接的Lambda的推荐方法。在随后的文章中,我将提供一个代码片段,演示如何将Lambda与Bedrock集成。如果Lambda是使用Python开发的,则需要boto3模块,并且可以将其添加为Lambda的一层。或者,可以使用SAM打包boto3来使用Python构建Lambda。可以通过AWS API Gateway对Lambda进行前端处理,创建一个抽象层。

另一种集成方法是使用Langchain或LLamaIndex框架开发基于Python的应用程序,使用Docker将其容器化,并在EKS平台上运行。这种方法允许在Kubernetes平台上以高可伸缩性和可控性运行应用程序的全部潜力,同时通过SageMaker接口连接到Bedrock。在我的下一篇文章中,我将更详细地介绍此集成方法。

结论

简而言之,Amazon Bedrock提供了一个强大且可扩展的平台,通过AWS IAM策略,具有安全性和角色基于访问控制,供企业有效利用生成性AI功能并构建自己的AI平台。通过提供易于访问的主要基础模型并处理基础架构和维护的复杂性,Bedrock允许组织专注于构建具有决策能力的AI应用程序,以解决其业务用例。安全地定制模型并与AWS服务集成,以确保符合企业对治理、合规性和加速开发的需求。

随着生成性AI的快速演进,Bedrock代表了组织以灵活且具备未来性的方式利用这项技术并获得实际的业务价值。通过使用Bedrock的能力进行深思熟虑的体系结构,企业可以克服AI采用的障碍,并开始实现生成智能在数字转型和产品提供方面的承诺。结果将是一个能够推动创新、效率和竞争差异化的AI驱动公司。

Leave a Reply

Your email address will not be published. Required fields are marked *