Press "Enter" to skip to content

Month: November 2023

负责任的人工智能:人工智能监督员在对抗选举虚假信息中的关键作用

在民主进程中,我们需要全面了解选举虚假信息的问题选举虚假信息涉及有意散布虚假信息以操纵公众舆论和破坏选举的诚信,直接威胁到民主基本原则回顾历史,我们可以看到选举干预现象日益增多

Leave a Comment

MLOps是什么?

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Blog-Banner-2-1-1024×576.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/11/Blog-Banner-2-1-150×150.png”/><p>机器学习运营,或MLOps,是一套用于通过将机器学习(ML)开发和ML部署结合起来,以标准化和简化在生产中连续交付高性能模型的过程。</p><p>制作和完善ML模型被称为ML开发。部署机器学习模型是将它们发布供在生产环境中使用。</p><p>通过自动化将ML模型从开发移至生产所需的过程,MLOps弥合了这两种方法之间的差距。这有助于快速和有效地部署ML模型,并保证其在工业环境中的持续成功。</p><p><strong>MLOps的好处有哪些?</strong></p><p>MLOps的价值在于它使企业能够:</p><ul><li>MLOps简化了将ML模型从开发到生产的流程,加快了部署速度,为组织提供了优势。</li><li>MLOps通过确保在训练环境一致的生产环境中部署ML模型,帮助企业提高机器学习(ML)模型的质量。这样做减少了模型随着基础数据分布的变化而逐渐失去准确性的可能性。</li><li>通过自动化管理和监控生产中的ML模型的过程,MLOps能够降低ML运营的高成本。员工因此可以将更多时间投入到其他项目中,如创建新的ML模型。</li></ul><p><strong>那么,MLOps到底是如何工作的呢?</strong></p><p>连续集成和交付(CI / CD)流水线通常用于实施MLOps。构建,测试和发布软件应用程序都是可以通过CI / CD流水线自动化的过程。</p><p>以下是MLOps CI / CD流水线中的典型步骤示例:</p><ul><li>使用过去收集的数据训练ML模型。</li><li>将ML模型与保留数据集进行比较进行测试。</li><li>将ML模型放入生产环境中,称为“部署”。</li><li>密切关注ML模型,确保其在生产中保持良好状态。</li></ul><p>您可以手动或自动启动CI / CD工作流。例如,当学习到机器学习模型的新版本时,可以激活流水线。</p><p><strong>用于MLOps的工具有哪些?</strong></p><p>对于MLOps,您可以选择各种有用的工具。常用工具包括:</p><ul><li>一套被称为ML框架的工具可用于训练和部署ML模型。最常用的ML框架包括TensorFlow,PyTorch和scikit-learn。</li><li>云计算平台提供了在生产中安装和管理ML模型所需的基础设施和服务。亚马逊网络服务(AWS),Google云平台(GCP)和Microsoft Azure是为MLOps而知名的云计算平台之一。</li></ul><p><strong>MLOps系统包括:</strong></p><ul><li>用于构建的集中式中心。</li><li>发布。</li><li>维护机器学习(ML)模型。</li></ul><p>Kubeflow,MLflow和Prefect是受欢迎的MLOps系统示例。</p><p><strong>如何开始使用MLOps</strong></p><p>您可以采取一些措施来开始使用MLOps:</p><p><strong>选择合适的工具:</strong>MLOps工具有各种形式。选择符合您的要求和预算的工具。</p><p><strong>设置CI / CD流水线:</strong>带有CI / CD流水线的自动化可以将ML模型从开发到生产的过程。</p><p><strong>监控您的ML模型:</strong>密切关注您的生产ML模型的表现。</p><p><strong>结论</strong></p><p>MLOps技术的目标是通过将ML开发和ML部署结合起来,标准化和简化在生产中连续交付高性能模型的过程。企业可以通过加快ML模型的部署速度,提高模型质量和降低ML运营成本从MLOps中受益。您可以采取多种措施开始使用MLOps,例如选择适当的工具,建立CI / CD流水线以及监控您的ML模型。</p> 机器学习运营,或称为MLOps,是一组流程,旨在通过将机器学习(ML)开发和ML部署结合起来,标准化和简化在生产中连续交付高性能模型的过程。 制作和优化ML模型被称为ML开发。部署机器学习模型是将它们发布供在生产环境中使用的过程。 通过自动化将ML模型从开发移到生产所需的过程,MLOps弥合了两种方法之间的差距。这有助于快速有效地部署ML模型,并使其在工业环境中保持成功。 MLOps的好处是什么?…

Leave a Comment

“Bing聊天如何在提供最新实时知识方面超越ChatGPT?认识检索增强生成(RAG)技术”

随着近年来大语言模型(LLMs)的发展,这些模型在人工智能和机器学习领域带来了范式转变。这些模型引起了大众和人工智能社区的极大关注,推动了自然语言处理、生成和理解方面的显著进展。最著名的LLM示例是基于OpenAI的GPT架构的ChatGPT,它已经改变了人类与基于AI技术的科技互动方式。 虽然LLMs在文本生成、问答、文本摘要和语言翻译等任务中显示出强大的能力,但它们仍然有自己的缺点。这些模型有时会产生形式不准确或过时的输出信息。甚至缺乏正确的来源归属也会使验证LLMs生成的输出的可靠性变得困难。 什么是检索增强生成(RAG)? 一种称为检索增强生成(RAG)的方法解决了上述限制。RAG是一种基于人工智能的框架,它从外部知识库中收集事实,让大语言模型获得准确和最新的信息。 通过集成外部知识检索,RAG已经能够改变LLMs。除了精确性,RAG通过透明地揭示LLMs的生成过程细节,为用户提供透明度。RAG解决了传统LLMs的局限性,通过平稳地结合外部检索和生成方法,确保了更可靠、具有上下文意识和知识的基于人工智能的通信环境。 RAG的优势 提高响应质量 – 检索增强生成着眼于LLM生成的响应不一致性问题,保证更准确和可信的数据。 获取最新信息 – RAG将外部信息集成到内部表示中,以确保LLMs获得当前和可信的事实。它确保答案建立在最新知识之上,提高模型的准确性和相关性。 透明度 – RAG的实施使用户能够检索基于LLMs的问答系统中模型的来源。通过使用户能够验证陈述的完整性,LLM促进了透明度,并增加了对其提供的数据的信心。 减少信息丢失和产生虚像 – RAG通过基于独立、可验证的事实建立LLMs,降低了模型泄漏机密信息或产生错误和误导性结果的可能性。它通过依赖更可靠的外部知识库,减少了LLMs对信息的错误解释的可能性。 降低计算开销 – RAG减少了对不断变化的条件进行参数调整和训练的需求。它减轻了财务和计算压力,提高了LLM驱动的聊天机器人在商业环境中的成本效益。 RAG如何工作? 检索增强生成(RAG)利用所有可用的信息,如结构化数据库和非结构化材料(如PDF)。这些异构材料被转换成一种通用格式,并组装成一个知识库,形成一个生成人工智能系统可以访问的存储库。 关键的一步是使用嵌入语言模型将该知识库中的数据转换为数字表示。然后,使用具有快速高效搜索功能的向量数据库来存储这些数字表示。一旦生成人工智能系统发出提示,这个数据库可以快速检索到最相关的上下文信息。 RAG的组成部分…

Leave a Comment

「这项AI研究介绍了FollowNet:一种用于车辆跟随行为建模的全面基准数据集」

跟随其他车辆是最常见和基本的驾驶活动。安全地跟随其他车辆可以减少碰撞,使交通流畅和可预测。当驾驶员在道路上跟随其他车辆时,适当的跟车模型会以数学或计算方式表示这种行为。 现实世界驾驶数据的可用性和机器学习的发展在过去十年中在数据驱动的跟随车辆模型的繁荣方面起到了重要作用。依赖数据来跟随车辆的模型包括神经网络、循环神经网络和强化学习。然而,目前的研究中存在一些限制,如下所示: 首先,由于缺乏标准数据格式,跟车模型尚未得到很好的评估。尽管公共驾驶数据集如NGSIM和HighD等可用,但由于缺乏标准数据格式和跟车模型的评估标准,很难将新提出的模型的性能与现有模型进行比较。 其次,当前研究中的数据集有限,无法准确描述混合交通流中的跟车行为。以不考虑自动驾驶车辆的小数据集对车辆跟随行为进行建模一直是过去研究的重点,而在这个时候,人工驾驶和自动驾驶车辆共同在道路上行驶。 为了解决这些问题并创建一个标准数据集,香港科技大学,广东省集成通信重点实验室,同济大学和华盛顿大学的一项新研究发布了一个名为FollowNet的基准。他们使用一致的准则从五个公开可用的数据集中提取了跟随车辆事件以建立这个基准。研究人员在基准范围内执行和评估了五个基准跟车模型,包括传统和数据驱动的方法。他们利用统一的数据格式为行为设定了第一个标准,以便促进跟车模型的创建。处理来自不同数据集的多样化数据结构和框架可能会很困难,但是他们统一的跟车基准考虑到了这一点。 通过使用基准进行训练和评估的两种传统和三种数据驱动的跟随车辆模型——GHR、IDM、NN、LSTM和DDPG。五个流行的公共驾驶数据集——HgihD53、Next Generation Simulation(NGSIM)54、Safety Pilot Model Deployment(SPMD)55、Waymo56和Lyf57——都包含了该基准所定义的跟随车辆事件。研究人员对跟车行为和基本统计信息的几个数据集进行了分析。结果显示使用一致的指标评估基准模型的性能。特别是Waymo和Lyf数据集显示了混合交通情况下的跟车事件。研究人员没有包括持续时间超过90%的静态事件。 即使数据驱动的模型在间距最小均方误差方面表现较传统模型更低,碰撞仍然是可能的。发展具有零碰撞率和较少间距误差的跟车模型是可取的。为了在跟车模型中包含驾驶异质性,需要创建适应性算法和代表性数据集,涵盖各种驾驶风格、行为和交通情况。 研究人员建议未来的数据集必须加入其他特征,以进一步改进跟随车辆模型的性能和真实性。例如,通过添加交通信号和道路条件数据,可以更完整地了解道路环境。如果算法集成了附近车辆及其活动的数据,也可以考虑复杂关系并提供更好的预测。未来的数据集将能够更好地反映真实世界的驾驶场景,从而为创建既强大又有效的跟车算法提供可能。

Leave a Comment

探索对OpenAI模型的开源替代品

介绍 11月在人工智能领域发生了许多重大事件。从GPT存储的推出,到GPT-4-turbo的发布,再到OpenAI的惨败,这一切都引发了一个重要的问题:封闭模型和背后的人员有多可靠?当你在生产中使用的模型因为一些内部公司事件而崩溃时,这将会是一次不愉快的经历。这对于开源模型来说并不是一个问题。您对部署的模型拥有完全控制权。您对数据和模型都有主权。但是是否可以用GPT代替开源模型?值得庆幸的是,许多开源模型已经达到或超过了GPT-3.5模型的性能。本文将探讨一些性能最佳的开源LLMs和LMMs替代方案。 学习目标 讨论开源大型语言模型。 探索最先进的开源语言模型和多模态模型。 对大型语言模型进行轻量化介绍。 了解在本地和云端运行LLMs的工具和服务。 本文作为数据科学博文马拉松的一部分发表。 什么是开源模型? 当模型的权重和架构是自由可用的时,我们称之为开源模型。这些权重是大型语言模型的预训练参数,例如Meta的Llama。这些通常是基础模型或未经调优的原始模型。任何人都可以使用这些模型,并将其在自定义数据上进行微调,以执行下游操作。 但是它们是否是真正的开源?数据呢?由于有关版权内容和数据敏感性的种种问题,大多数研究实验室都不会公开发布训练基础模型时所使用的数据。这也涉及到模型的许可问题。每个开源模型都有类似于任何其他开源软件的许可证。许多基础模型(例如Llama-1)配有非商业许可证,这意味着您不能使用这些模型来赚钱。但是像Mistral7B和Zephyr7B这样的模型配有Apache-2.0和MIT许可证,可以在任何地方使用而不会有顾虑。 开源替代方案 自从Llama发布以来,开源领域一直在追赶OpenAI模型。迄今为止,取得了令人鼓舞的成果。在GPT-3.5发布一年内,我们已经拥有了参数更少但在性能上与GPT-3.5相媲美甚至更好的模型。但是GPT-4仍然是执行从推理和数学到代码生成等各种一般任务的最佳模型。进一步观察开源模型领域的创新和资金支持的步伐,我们很快将会有越来越接近GPT-4性能的模型。现在,让我们讨论一些出色的开源模型的替代方案。 Meta’s Llama 2 Meta在今年7月发布了他们最好的模型Llama-2,并因其令人印象深刻的能力而迅速走红。Meta发布了四个不同参数规模的Llama-2模型,分别是Llama-7b、13b、34b和70b。这些模型在各自的类别中足以击败其他开源模型。但是现在,诸如mistral-7b和Zephyr-7b等多个模型在许多基准测试中优于较小的Llama模型。Llama-2 70b仍然是其类别中最好的之一,可以作为GPT-4在摘要、机器翻译等任务上的替代品。 Llama-2在许多基准测试中表现优于GPT-3.5,并且能够接近GPT-4,使其成为GPT-3.5甚至在某些情况下是GPT-4的一个有价值的替代品。以下图表是由Anyscale提供的Llama和GPT模型的性能比较。 有关Llama-2的更多信息,请参阅HuggingFace上的博客。这些LLM经过微调后在自定义数据集上表现良好。我们可以对模型进行微调,以在特定任务中发挥更好的性能。 不同的研究实验室也发布了经过微调的Llama-2版本。这些模型在许多基准测试中显示出比原始模型更好的结果。这款经过微调的Llama-2模型,Nous-Hermes-Llama2-70b,由Nous Research经过超过300,000个自定义指令进行了微调,使其比原始的meta-llama/Llama-2-70b-chat-hf更好。 查看HuggingFace的排行榜。您可以找到比原始模型效果更好的经过微调的Llama-2模型。这是开源模型的优点之一。根据需求,可以选择多种模型。 Mistral-7B Mistral-7B发布以来,它已成为开源社区的宠儿。它的性能要远远优于同类模型,并接近GPT-3.5的能力。这个模型可以在许多情况下替代Gpt-3.5,比如摘要、改写、分类等。…

Leave a Comment

“Inflection-2超越了Google的PaLM-2 AI语言模型的突破性进展”

在一项具有突破性的宣布中,Inflection AI,即备受欢迎的PI AI个人助理的创建者,揭示了他们的最新成就。一款强大的语言模型名为Inflection-2不仅超过了谷歌强大的PaLM-2,而且在各种基准测试数据集中表现出了优越性。 Inflection-2大型语言模型 经过广泛的研究和开发,Inflection-2在大型语言模型领域树立了新的标准。在与谷歌的PaLM-2和Meta的LLaMA-2进行比较测试后,Inflection-2被评为领先者。值得注意的是,在自然问题(Natural Questions)语料库中,Inflection-2的37.3分数仅仅略逊于PaLM-2的37.5分数,明显优于LLaMA-2。 MMLU – 大规模多任务语言理解 Inflection AI的MMLU基准测试成绩公开了该模型的优势和不足之处。该数据集覆盖了STEM(科学、技术、工程和数学)以及各种科目的57项任务,目的是评估模型的世界知识和问题解决能力。Inflection-2令人印象深刻的79.6分数使其跻身于顶级表现者之列,表明它在不同领域具有全面的理解能力。 MBPP – 代码和数学推理能力 在MBPP数据集的直接比较中,该数据集侧重于代码和数学推理,Inflection-2展现了意外的高水平。尽管没有专门针对这些任务进行训练,但它以53.0分数超越了针对编码进行微调的PaLM-2S的50.0分数。 HumanEval数据集测试 Inflection-2的成功不仅限于HumanEval问题解决数据集,它以44.5分数超过了PaLM-2。值得注意的是,尽管没有针对这些挑战进行专门训练,但Inflection-2的性能堪比强大的GPT-4。 更强大的LLM即将到来 Inflection AI的宣告暗示着正在制作中的更加强大的语言模型。通过计划在庞大的22,000个GPU集群上进行训练(比Inflection-2的5,000个GPU集群大几倍),Inflection AI有望加剧人工智能领域的竞争。随着Inflection AI等初创公司不断推出强大的AI模型,谷歌和OpenAI等已经建立起来的重要参与者面临着更加激烈的竞争。 还阅读:伊隆·马斯克发布碧色:带有叛逆倾向的时髦AI聊天机器人 我们的看法 Inflection-2作为一款领先的语言模型,在AI能力方面迈出了重要的一步。该模型在任务中的出色表现,尤其是在其训练范围之外的任务中,突显了其适应性和在各种应用中的潜力。随着技术行业见证AI创新的蓬勃发展,PI个人助理等对话式人工智能平台正在不断演变,为用户提供前沿体验。Inflection…

Leave a Comment

介绍Amazon Q:推出聊天机器人,为商业辉煌增添光彩!

在今天快节奏的商业世界中,有效的沟通是成功的关键。亚马逊推出了Amazon Q,一款旨在简化商业沟通、让公司与数据互动并采取行动的AI聊天机器人。在本文中,我们将探讨Amazon Q的功能、优势以及对业务沟通的影响。 亚马逊Q的强大功能 亚马逊Q是由亚马逊网络服务(AWS)开发的AI聊天机器人,利用自然语言处理和机器学习的力量,以对话方式理解和回应用户查询。通过亚马逊Q,企业可以自动化客户互动、提供即时支持,并从客户对话中获取有价值的见解。 关键功能和功能 亚马逊Q提供了一系列功能和功能,使其在商业沟通领域成为了一款改变游戏规则的产品。首先,它允许企业创建根据自身需要定制的聊天机器人。这些聊天机器人可以与各种消息平台(如Slack或Microsoft Teams)集成,使企业能够轻松地通过客户首选的渠道与其互动。 亚马逊Q的一大亮点功能是其能够理解复杂的查询并提供准确的回应。该聊天机器人使用先进的自然语言理解算法来理解用户意图并从对话中提取相关信息。这使得企业能够提供个性化和有上下文相关性的回应,增强整体客户体验。 此外,亚马逊Q可以通过公司数据进行特定操作的训练。例如,客户可能会要求聊天机器人安排会议或下订单。通过正确配置,亚马逊Q可以无缝执行这些操作,为客户和企业节省时间和精力。 另请阅读:亚马逊 vs. 阿里巴巴:会话式AI巨头之争 对企业的好处 引入亚马逊Q为各种规模的企业带来了众多好处。首先,它使公司能够提供全天候的客户支持,无需人为干预。这不仅提高了客户满意度,还减轻了支持团队的工作量,使其能够专注于更复杂的任务。 此外,亚马逊Q帮助企业从客户对话中获得有价值的见解。通过分析与聊天机器人的互动产生的数据,公司可以更深入地了解客户偏好、痛点和趋势。这些信息可以用于推动产品改进、营销策略和整体业务增长。 亚马逊Q的另一个重要优势是其可扩展性。随着企业的发展和客户需求的增加,聊天机器人可以轻松处理更多的对话,而不会影响性能。这确保企业即使在高峰期也能保持高水平的客户服务。 我们的观点 总之,这款突破性的AI聊天机器人正在改变企业之间的沟通方式。借助其先进的功能、无缝的集成和理解复杂查询的能力,亚马逊正在革新客户支持,并为企业提供宝贵的见解。通过利用AI的力量,企业可以增强其沟通策略,提高客户满意度并推动整体增长。随着技术的不断发展,AI聊天机器人如亚马逊Q将在塑造商业沟通未来中发挥关键作用。

Leave a Comment

中国来自AI研究介绍了GS-SLAM:一种增强3D地图和定位的新型方法

上海人工智能实验室、复旦大学、西北工业大学和香港科技大学的研究人员合作开发了一款名为GS-SLAM的基于3D高斯表示的同时定位与地图构建(SLAM)系统。该计划的目标是实现准确性和效率之间的平衡。GS-SLAM采用实时可微分的网格化渲染流程、自适应扩展策略和粗糙到精细的技术来改进姿态跟踪,从而减少运行时间和更稳健的估计。该系统在Replica和TUM-RGBD数据集上展示了竞争性的性能,优于其他实时方法。 该研究回顾了现有的实时稠密视觉SLAM系统,包括基于手工特征、深度学习嵌入和基于NeRF的方法。它强调了在引入GS-SLAM之前,相机姿态估计和使用3D高斯模型进行实时地图构建方面的研究缺失。GS-SLAM创新地将3D高斯表示纳入,采用实时可微分的网格化渲染流程和自适应扩展策略来实现高效的场景重建。与已有的实时SLAM方法相比,该方法在Replica和TUM-RGBD数据集上展示了竞争性的性能。 这项研究解决了传统SLAM方法在实现精细密集地图方面的挑战,并引入了GS-SLAM,一种新颖的RGB-D密集SLAM方法。GS-SLAM利用3D高斯场景表示和实时可微分的网格化渲染流程来增强速度和准确性之间的权衡。所提出的自适应扩展策略高效地重建新观察到的场景几何,而粗到精的技术改进了相机姿态估计。GS-SLAM展示了改进的跟踪、地图构建和渲染性能,为机器人、虚拟现实和增强现实应用的密集SLAM能力提供了重要的进展。 GS-SLAM采用3D高斯表示和实时可微分的网格化渲染流程用于地图构建和RGB-D重新渲染。它特点在于场景几何重建和地图增强的自适应扩展策略。相机跟踪利用粗到精的技术可靠地选择3D高斯表示,减少运行时间并确保鲁棒性估计。GS-SLAM在Replica和TUM-RGBD数据集上的竞争性性能优于NICE-SLAM、Vox-Fusion和iMAP。在各种指标上与CoSLAM的结果相当。GS-SLAM在构建的网格中显示出清晰的边界和细节,重建性能优秀。在跟踪方面,它优于Point-SLAM、NICE-SLAM、Vox-Fusion、ESLAM和CoSLAM。GS-SLAM适用于运行速度约为5 FPS的实时应用。 GS-SLAM的有效性取决于高质量深度信息的可用性,依靠深度传感器读数进行3D高斯初始化和更新。在大规模场景中,该方法的内存使用量较高,未来的工作计划旨在通过神经场景表示集成来缓解这一限制。虽然该研究承认了这些限制,但它需要对自适应扩展策略和粗到精相机跟踪技术的潜在限制有更多深入的洞察。需要进一步的分析来全面评估它们的控制权限。 总之,GS-SLAM是一个有希望的密集视觉SLAM解决方案,它在速度和准确性之间提供了平衡的组合。其自适应的3D高斯扩展策略和粗到精的相机跟踪实现了动态而详细的地图重建和鲁棒的相机姿态估计。尽管它依赖于高质量的深度信息并且在大规模场景中使用内存较多,但GS-SLAM展示了竞争性的性能和优越的渲染质量,尤其是在详细的边缘区域。进一步的改进计划将包括神经场景表示的整合。

Leave a Comment

亚马逊推出Q:一款可以根据企业定制的生成式AI聊天机器人

亚马逊网络服务(AWS)最近宣布了一款开创性的生成式AI助手 – 亚马逊Q,旨在改变工作场所。亚马逊Q突出的特点是能够根据具体的业务需求定制其辅助功能,利用公司的数据和专业知识提供答案、解决问题、生成内容和促进行动。 亚马逊Q的主要特点和能力包括: 满足业务需求的定制化:亚马逊Q可以根据组织已有的身份、角色和权限进行个性化互动。这种定制化确保了助手的回答和建议与公司特定的工作流程和信息系统相关。 安全与隐私:亚马逊Q的一个突出特点是其内置的安全和隐私措施。与其他可能最初不包含这些关键特性的生成式AI解决方案不同,亚马逊Q设计时就考虑了这些因素。 开发人员和IT支持:对于开发人员和IT专业人员来说,亚马逊Q是一个知识渊博的助手,可以帮助处理从故障排除到代码优化的各种任务。它经过了AWS的知识和经验培训,在各种AWS服务和工具上提供见解和解决方案。 功能开发和代码转换:亚马逊Q帮助开发新功能和转换现有代码,简化应用程序开发和维护。它可以自动化开发过程的许多方面,减少开发人员所需的时间和精力。 与业务数据和系统的集成:助手可以连接到公司的数据和系统,为问题解决和内容生成提供量身定制的帮助。这种能力使员工能够充分利用生成式AI,有效利用内部资源。 管理控制:亚马逊Q允许管理员对其可以处理的主题和可以提供的回答设定控制,确保其使用符合公司政策和数据访问限制。 在各种服务中的广泛应用:亚马逊Q扩展其能力到各种AWS服务和应用程序,包括Amazon QuickSight、Amazon Connect和AWS供应链。这种整合使得能够更高效地执行各种领域特定任务。 亚马逊Q代表了生成式AI在工作场所应用的重大进展,提供了一个多功能、安全、定制化的助手,可以增加各种业务功能的生产力和创新能力。 本文来源:亚马逊推出Q:一款可以专门为企业定制的生成式AI聊天机器人 – MarkTechPost

Leave a Comment

这篇来自DeepMind的机器学习研究介绍了在动态环境中进行高级规划的向量量化模型(VQ)

随着技术的不断进步,人工智能成功地使计算机能够以类似于人类思维和学习的方式运作,模仿人脑的智慧。人工智能、机器学习和深度学习等领域的最新进展,已经在包括医疗保健、金融、教育等多个领域得到了提升。近来备受关注的大型语言模型展现了惊人的仿人能力。从问答和文本摘要到代码生成和代码补全,这些模型在各种任务上表现出色。 大型语言模型是通过一种名为强化学习的机器学习范式进行微调的。在强化学习中,智能体通过与周围环境的交互来学习决策能力。它通过在环境中的行为来最大化随时间累积的奖励信号。模型驱动的强化学习最近取得了进展,并在各种需要规划的场景中显示出希望。然而,这些成功仅限于完全可观察且确定的情况。 在最近的研究中,DeepMind的研究团队提出了一种利用矢量量化模型进行规划的新策略。这种方法旨在解决随机和部分可观察环境中的问题。该方法利用状态VQVAE(矢量量化变分自动编码器)和转移模型,将未来的观察编码为离散的潜在变量。这使得它能够适应随机或部分可观察的情境,实现对未来观察和未来行动的规划。 团队表示,这种方法中使用了离散自动编码器来捕捉随机情境中行动的各种可能结果。被称为自动编码器的神经网络设计接收输入数据,将其编码为潜在表示,然后将其解码回原始形式。利用离散自动编码器的方法使得在随机情境中代理行为引起的多种可能结果得以呈现。 为了在此类情境中更容易进行规划,团队使用了蒙特卡洛树搜索的随机变体。蒙特卡洛树搜索是计划和决策过程中常用的一种方法。在此情况下,随机变体允许考虑环境的不确定性。除了代理的行动,规划过程中还包括表示环境可能响应的离散潜在变量。这种全面的方法旨在捕捉部分可观测性和随机性带来的复杂性。 团队对该方法进行了评估,结果表明在一种随机解释的国际象棋中,该方法击败了著名的强化学习系统MuZero的离线变体。从这个角度来看,对手引入了不确定性,并被视为环境的一个重要组成部分。通过DeepMind Lab对该方法的有效实施证明了其可扩展性。这种方法在这种情景中观察到的有利结果证明了它在处理复杂动态环境中的灵活性和有效性。 总之,这种基于模型的强化学习技术扩展了在部分可观察、随机环境中的完全可观察、确定性环境中的有效性。离散自动编码器和随机蒙特卡洛树搜索版本展示了对不确定环境所带来困难的复杂理解,提高了实际应用中的性能。

Leave a Comment

NVIDIA为一些最大的亚马逊Titan基础模型提供训练能力

关于大型语言模型的一切都是巨大的——巨大的模型在数千个NVIDIA GPU上的大规模数据集上进行训练。 这对于追求生成式人工智能的公司来说会带来很多大的挑战。 NVIDIA NeMo是一个构建、定制和运行LLM的框架,有助于克服这些挑战。 亚马逊网络服务的一支由经验丰富的科学家和开发人员组成的团队正在创建Amazon Titan为Amazon Bedrock提供基础模型,后者是一项基于基础模型的生成式人工智能服务,并在过去的几个月中一直使用NVIDIA NeMo。 “与NeMo合作的一个重要原因是它的可扩展性,它具有优化功能,可以在高GPU利用率下运行,并使我们能够扩展到更大的集群,以便我们能够更快地训练和交付模型给我们的客户,”亚马逊网络服务的高级应用科学家Leonard Lausen说。 融入大规模环境 NeMo中的并行技术使得大规模LLM的训练更加高效。与AWS的弹性适配器相结合,可以将LLM分散到多个GPU上加速训练。 EFA提供了一个UltraCluster网络基础设施,可以直接连接超过10,000个GPU,并通过NVIDIA GPUDirect绕过操作系统和CPU。 这种组合使得AWS的科学家们能够提供优秀的模型质量,这是仅依赖数据并行化方法无法实现的。 适用于各种规模的框架 “NeMo的灵活性,”Lausen说,“使得AWS能够根据新的Titan模型、数据集和基础设施的特点来定制训练软件。” AWS的创新包括从Amazon Simple Storage Service(Amazon S3)到GPU集群的高效流处理。“由于NeMo基于像PyTorch Lightning这样的流行库构建,这些改进很容易融入其中,这些库标准化了LLM训练流程组件,”Lausen说。 AWS和NVIDIA的目标是吸取他们的合作所学,为顾客带来像NVIDIA…

Leave a Comment

“AWS上的NVIDIA GPU将在全宇宙Isaac模拟器中实现2倍的模拟飞跃,加速智能机器人的发展”

在云端开发更智能的机器人即将获得速度倍增器。 NVIDIA Isaac Sim和NVIDIA L40S GPUs即将登陆亚马逊云服务,使开发者能够在云端构建和部署加速机器人应用。Isaac Sim是一个可扩展的人工智能机器人模拟器,构建于NVIDIA Omniverse开发平台,用于构建和连接OpenUSD应用程序。 L40S GPU将强大的人工智能计算与图形和媒体加速相结合,旨在为下一代数据中心工作负载提供动力。基于Ada Lovelace架构,L40S可以实现超高速实时渲染,与上一代相比,Omniverse的性能提升高达3.8倍,提升了工程和机器人团队的能力。 加速度的世代跃迁使得在使用Isaac Sim进行一系列机器人模拟任务时,与A40 GPU相比,获得了2倍的性能提升。 L40S GPU还可以用于生成式人工智能工作负载,从几小时内对大型语言模型进行精调,到文本到图像和聊天应用的实时推理。 NVIDIA L40S在AWS Marketplace上的新Amazon Machine Images (AMIs)将使机器人工程师们能够轻松访问预配置的虚拟机,以执行Isaac Sim工作负载。 模拟中的机器人开发加速了应用部署的过程,为零售业、食品加工业、制造业、物流等行业注入了强大动力。 根据ABI…

Leave a Comment

NVIDIA BioNeMo在AWS上实现了药物发现的生成式人工智能

领先的制药和技术生物公司的研究人员和开发人员现在可以通过亚马逊网络服务(AWS)轻松部署NVIDIA Clara软件和服务,加速医疗保健领域的发展。 该计划于AWS re:Invent上宣布,为使用AWS云资源的医疗保健和生命科学开发人员提供了灵活性,可以集成NVIDIA加速的产品,例如NVIDIA BioNeMo——一种用于药物发现的生成式人工智能平台,即将在AWS上推出NVIDIA DGX Cloud,目前可通过AWS ParallelCluster集群管理工具和Amazon SageMaker机器学习服务使用。 全球数千家医疗保健和生命科学公司使用AWS。现在,他们将能够使用BioNeMo访问专有数据构建或定制数码生物学基础模型,并使用NVIDIA GPU加速的AWS云服务器来扩大模型的培训和部署。 包括Alchemab Therapeutics、Basecamp Research、Character Biosciences、Evozyne、Etcembly和LabGenius在内的生物技术创新者已经是AWS的用户,并且已经在使用BioNeMo进行生成式人工智能加速的药物发现和开发。这种合作使他们能够更快速地扩展云计算资源,以开发基于生物分子数据的生成式人工智能模型。 此次宣布扩展了NVIDIA在AWS上已有的面向医疗保健的产品——用于医学成像工作流程的NVIDIA MONAI和加速基因组学的NVIDIA Parabricks。 AWS新推出:NVIDIA BioNeMo推进生成式人工智能的药物发现 BioNeMo是一个针对数码生物学生成式人工智能的领域专用框架,包括预训练的大型语言模型 (LLMs)、数据加载器和优化的训练配方,可以帮助加速计算机辅助药物发现的目标识别、蛋白质结构预测和药物候选筛选。 药物发现团队可以利用他们的专有数据使用BioNeMo构建或优化模型,并在基于云的高性能计算集群上运行这些模型。 其中的一个模型ESM-2是一款功能强大的LLM,支持蛋白质结构预测,几乎能够线性扩展至256个NVIDIA H100…

Leave a Comment