Press "Enter" to skip to content

Tag: Networking

2024年的17个预测:从贫穷到财富,从披头士狂热到国家宝藏

向一边去,韦伯斯特:今年企业发现了许多候选词来评选年度词汇。紧随其后的是诸如“生成式人工智能”和“生成式预训练变压器”之类的术语,整个行业都将注意力转向变革性的新技术,如“大型语言模型”和“检索增强生成”(RAG)。 一开始,“生成式人工智能”只是一个较小的关注点,但最后却以耀眼姿态收场。许多公司正在迅速利用其能够处理文本、语音和视频的能力,产生革新性的内容,从而彻底改变生产力、创新力和创造力。 企业正在顺应这一趋势。根据麦肯锡公司的数据,像OpenAI的ChatGPT这样的深度学习算法,再加上企业数据的进一步训练,每年可以为63个商业用例带来相当于2.6万亿至4.4万亿美元的价值。 然而,管理大量的内部数据往往被认为是扩展人工智能的最大障碍。一些AI领域的NVIDIA专家预测,2024年将成为联络朋友的一年——与云服务提供商、数据存储和分析公司以及其他掌握处理、优化和高效部署大数据的技能的公司建立伙伴关系和合作。 大语言模型是这一切的核心。NVIDIA专家表示,LLM研究的进展将越来越多地应用于商业和企业应用领域。通过几乎任何平台,诸如RAG、自主智能代理和多模态互动等AI功能将变得更加易于获取和部署。 听取NVIDIA专家对未来一年的预测: MANUVIR DAS企业计算副总裁 一刀切不适用于所有情况:定制化即将进入企业。企业将不会只有一两个生成式人工智能应用,它们会有数百个定制应用,使用适合于业务不同部分的专有数据。 一旦投入生产,这些定制化的LLM将具备RAG功能,将数据源与生成式人工智能模型连接起来,以获得更准确、更明智的响应。像Amdocs、Dropbox、Genentech、SAP、ServiceNow和Snowflake这样的领先公司已经在构建使用RAG和LLM的全新生成式人工智能服务。 开源软件引领潮流:得益于开源预训练模型,解决特定领域挑战的生成式人工智能应用将成为企业运营策略的一部分。 一旦公司将这些先导模型与私有或实时数据结合起来,他们就可以开始在整个组织中看到加速的生产力和成本效益。从基于云计算和人工智能模型铸造服务到数据中心、边缘和桌面,AI计算和软件将在几乎任何平台上变得更加易于获取。 现成的人工智能和微服务:生成式人工智能促使应用程序编程接口(API)端点的采用增加,这使得开发人员能够构建复杂的应用程序更加容易。 到2024年,软件开发工具包和API将升级,开发人员将使用生成式人工智能微服务(例如RAG作为服务)来定制现成的AI模型。这将帮助企业充分发挥以智能助手和摘要工具为代表的以AI驱动的生产力的潜力,这些工具可以获取最新的业务信息。 开发人员将能够直接将这些API端点嵌入到他们的应用程序中,而无需担心维护支持这些模型和框架所需的基础设施。最终用户将能够体验到更直观、更具响应性和更符合需求的应用程序。 IAN BUCK超大规模和高性能计算副总裁 国家财富:人工智能将成为新的太空竞赛,每个国家都希望建立自己的卓越中心,推动研究和科学的重大进展,提高国内生产总值。 只需要几百个加速计算节点,各国就能迅速构建高效、高性能、百亿亿次量级的AI超级计算机。政府资助的生成式AI卓越中心将通过创造新的工作岗位和建设更强大的大学项目推动国家经济增长,培养下一代科学家、研究人员和工程师。 量子飞跃:企业领导者将以两个关键驱动因素启动量子计算研究项目:利用传统AI超级计算机模拟量子处理器的能力以及混合经典量子计算的开放统一开发平台的可用性。这使得开发人员可以使用标准编程语言而不需要定制的、专门的知识来构建量子算法。 曾经在计算机科学中被认为是一个隐晦的领域,随着企业加入学术界和国家实验室追求材料科学、制药研究、亚原子物理和物流的快速进展,量子计算探索将变得更加主流。 KARI BRISKI副总裁,AI软件 从试错到致富:随着企业采用这些AI框架,对试错增强生成技术(RAG)将会有更多的讨论。 当企业培训LLM来构建生成式AI应用程序和服务时,当模型在某种用例下没有足够准确、相关的信息时,RAG被广泛视为解决不准确或荒谬回答的方法。…

Leave a Comment

什么是超级NIC?

生成式人工智能是快速变化的数字领域中的最新转变。其中一个开创性的创新是一个相对较新的术语:SuperNIC。 什么是SuperNIC? SuperNIC是一类新的网络加速器,旨在为以太网云中的超大规模人工智能工作负载提供超高速的网络连接。它利用基于收敛以太网(RoCE)技术的远程直接内存访问(RDMA),实现了GPU到GPU通信的闪电般快速的网络连接速度,最高可达到400Gb/s。 SuperNIC具备以下独特的特点: 高速的数据包重新排序,确保数据包按照原始传输的顺序接收和处理,从而保持数据流的顺序完整性。 使用实时遥测数据和网络感知算法进行先进的拥塞控制,以管理和预防人工智能网络中的拥塞。 在输入/输出(I/O)路径上进行可编程计算,以实现人工智能云数据中心网络基础设施的定制和可扩展性。 高效节能的低轮廓设计,以在有限的功率预算内有效容纳人工智能工作负载。 全栈人工智能优化,包括计算、网络、存储、系统软件、通信库和应用框架。 最近,NVIDIA推出了世界上第一个专为人工智能计算定制的SuperNIC,基于BlueField-3网络平台。它是NVIDIA Spectrum-X平台的一部分,能够与Spectrum-4以太网交换机系统无缝集成。 NVIDIA BlueField-3 SuperNIC和Spectrum-4交换机系统共同构成了一个专为优化人工智能工作负载而设计的加速计算架构的基础。Spectrum-X始终提供高网络效率水平,胜过传统以太网环境。 “在人工智能推动下一波技术创新的世界中,BlueField-3 SuperNIC是重要的部件,” NVIDIA数据处理器和网络接口卡产品副总裁Yael Shenhav表示,“SuperNIC确保您的人工智能工作负载高效而快速地执行,成为推动人工智能计算未来的基础组件。” 人工智能和网络的不断演变 由于生成式人工智能和大型语言模型的出现,人工智能领域正在发生巨大变革。这些强大的技术打开了新的可能性,使计算机能够处理新的任务。 人工智能的成功在很大程度上依赖于GPU加速计算,用于处理海量数据、训练大型人工智能模型和实现实时推理。这种新的计算能力开辟了新的可能性,但也对以太网云网络提出了挑战。 传统以太网作为支撑互联网基础设施的技术,最初是为了提供广泛的兼容性和连接松散耦合的应用程序而设计的。它并不适用于处理现代人工智能工作负载的要求,这些要求包括紧密耦合的并行处理、快速数据传输和独特的通信模式,它们都需要优化的网络连接。 基础网络接口卡(NIC)是为通用计算、通用数据传输和互操作性而设计的,它们从未被设计用于应对人工智能工作负载的计算强度所带来的独特挑战。 标准的网络接口卡缺乏有效数据传输、低延迟和决定性性能对于人工智能任务至关重要的特性和功能。而SuperNIC则是专为现代人工智能工作负载而构建的。 人工智能计算环境中的SuperNIC优势…

Leave a Comment