Press "Enter" to skip to content

Tag: Data Center

2024年的17个预测:从贫穷到财富,从披头士狂热到国家宝藏

向一边去,韦伯斯特:今年企业发现了许多候选词来评选年度词汇。紧随其后的是诸如“生成式人工智能”和“生成式预训练变压器”之类的术语,整个行业都将注意力转向变革性的新技术,如“大型语言模型”和“检索增强生成”(RAG)。 一开始,“生成式人工智能”只是一个较小的关注点,但最后却以耀眼姿态收场。许多公司正在迅速利用其能够处理文本、语音和视频的能力,产生革新性的内容,从而彻底改变生产力、创新力和创造力。 企业正在顺应这一趋势。根据麦肯锡公司的数据,像OpenAI的ChatGPT这样的深度学习算法,再加上企业数据的进一步训练,每年可以为63个商业用例带来相当于2.6万亿至4.4万亿美元的价值。 然而,管理大量的内部数据往往被认为是扩展人工智能的最大障碍。一些AI领域的NVIDIA专家预测,2024年将成为联络朋友的一年——与云服务提供商、数据存储和分析公司以及其他掌握处理、优化和高效部署大数据的技能的公司建立伙伴关系和合作。 大语言模型是这一切的核心。NVIDIA专家表示,LLM研究的进展将越来越多地应用于商业和企业应用领域。通过几乎任何平台,诸如RAG、自主智能代理和多模态互动等AI功能将变得更加易于获取和部署。 听取NVIDIA专家对未来一年的预测: MANUVIR DAS企业计算副总裁 一刀切不适用于所有情况:定制化即将进入企业。企业将不会只有一两个生成式人工智能应用,它们会有数百个定制应用,使用适合于业务不同部分的专有数据。 一旦投入生产,这些定制化的LLM将具备RAG功能,将数据源与生成式人工智能模型连接起来,以获得更准确、更明智的响应。像Amdocs、Dropbox、Genentech、SAP、ServiceNow和Snowflake这样的领先公司已经在构建使用RAG和LLM的全新生成式人工智能服务。 开源软件引领潮流:得益于开源预训练模型,解决特定领域挑战的生成式人工智能应用将成为企业运营策略的一部分。 一旦公司将这些先导模型与私有或实时数据结合起来,他们就可以开始在整个组织中看到加速的生产力和成本效益。从基于云计算和人工智能模型铸造服务到数据中心、边缘和桌面,AI计算和软件将在几乎任何平台上变得更加易于获取。 现成的人工智能和微服务:生成式人工智能促使应用程序编程接口(API)端点的采用增加,这使得开发人员能够构建复杂的应用程序更加容易。 到2024年,软件开发工具包和API将升级,开发人员将使用生成式人工智能微服务(例如RAG作为服务)来定制现成的AI模型。这将帮助企业充分发挥以智能助手和摘要工具为代表的以AI驱动的生产力的潜力,这些工具可以获取最新的业务信息。 开发人员将能够直接将这些API端点嵌入到他们的应用程序中,而无需担心维护支持这些模型和框架所需的基础设施。最终用户将能够体验到更直观、更具响应性和更符合需求的应用程序。 IAN BUCK超大规模和高性能计算副总裁 国家财富:人工智能将成为新的太空竞赛,每个国家都希望建立自己的卓越中心,推动研究和科学的重大进展,提高国内生产总值。 只需要几百个加速计算节点,各国就能迅速构建高效、高性能、百亿亿次量级的AI超级计算机。政府资助的生成式AI卓越中心将通过创造新的工作岗位和建设更强大的大学项目推动国家经济增长,培养下一代科学家、研究人员和工程师。 量子飞跃:企业领导者将以两个关键驱动因素启动量子计算研究项目:利用传统AI超级计算机模拟量子处理器的能力以及混合经典量子计算的开放统一开发平台的可用性。这使得开发人员可以使用标准编程语言而不需要定制的、专门的知识来构建量子算法。 曾经在计算机科学中被认为是一个隐晦的领域,随着企业加入学术界和国家实验室追求材料科学、制药研究、亚原子物理和物流的快速进展,量子计算探索将变得更加主流。 KARI BRISKI副总裁,AI软件 从试错到致富:随着企业采用这些AI框架,对试错增强生成技术(RAG)将会有更多的讨论。 当企业培训LLM来构建生成式AI应用程序和服务时,当模型在某种用例下没有足够准确、相关的信息时,RAG被广泛视为解决不准确或荒谬回答的方法。…

Leave a Comment

什么是超级NIC?

生成式人工智能是快速变化的数字领域中的最新转变。其中一个开创性的创新是一个相对较新的术语:SuperNIC。 什么是SuperNIC? SuperNIC是一类新的网络加速器,旨在为以太网云中的超大规模人工智能工作负载提供超高速的网络连接。它利用基于收敛以太网(RoCE)技术的远程直接内存访问(RDMA),实现了GPU到GPU通信的闪电般快速的网络连接速度,最高可达到400Gb/s。 SuperNIC具备以下独特的特点: 高速的数据包重新排序,确保数据包按照原始传输的顺序接收和处理,从而保持数据流的顺序完整性。 使用实时遥测数据和网络感知算法进行先进的拥塞控制,以管理和预防人工智能网络中的拥塞。 在输入/输出(I/O)路径上进行可编程计算,以实现人工智能云数据中心网络基础设施的定制和可扩展性。 高效节能的低轮廓设计,以在有限的功率预算内有效容纳人工智能工作负载。 全栈人工智能优化,包括计算、网络、存储、系统软件、通信库和应用框架。 最近,NVIDIA推出了世界上第一个专为人工智能计算定制的SuperNIC,基于BlueField-3网络平台。它是NVIDIA Spectrum-X平台的一部分,能够与Spectrum-4以太网交换机系统无缝集成。 NVIDIA BlueField-3 SuperNIC和Spectrum-4交换机系统共同构成了一个专为优化人工智能工作负载而设计的加速计算架构的基础。Spectrum-X始终提供高网络效率水平,胜过传统以太网环境。 “在人工智能推动下一波技术创新的世界中,BlueField-3 SuperNIC是重要的部件,” NVIDIA数据处理器和网络接口卡产品副总裁Yael Shenhav表示,“SuperNIC确保您的人工智能工作负载高效而快速地执行,成为推动人工智能计算未来的基础组件。” 人工智能和网络的不断演变 由于生成式人工智能和大型语言模型的出现,人工智能领域正在发生巨大变革。这些强大的技术打开了新的可能性,使计算机能够处理新的任务。 人工智能的成功在很大程度上依赖于GPU加速计算,用于处理海量数据、训练大型人工智能模型和实现实时推理。这种新的计算能力开辟了新的可能性,但也对以太网云网络提出了挑战。 传统以太网作为支撑互联网基础设施的技术,最初是为了提供广泛的兼容性和连接松散耦合的应用程序而设计的。它并不适用于处理现代人工智能工作负载的要求,这些要求包括紧密耦合的并行处理、快速数据传输和独特的通信模式,它们都需要优化的网络连接。 基础网络接口卡(NIC)是为通用计算、通用数据传输和互操作性而设计的,它们从未被设计用于应对人工智能工作负载的计算强度所带来的独特挑战。 标准的网络接口卡缺乏有效数据传输、低延迟和决定性性能对于人工智能任务至关重要的特性和功能。而SuperNIC则是专为现代人工智能工作负载而构建的。 人工智能计算环境中的SuperNIC优势…

Leave a Comment

“NVIDIA 加速为企业定制生成型人工智能模型的开发”

如今,免费的开源大型语言模型(LLMs)的景象就像是一家任君选择的自助餐厅,满足企业的需求。对于开发者来说,这种丰富多样可能会让他们在构建定制的生成型人工智能应用程序时感到不知所措,因为他们需要满足独特的项目和业务需求,包括兼容性、安全性以及用于训练模型的数据。 NVIDIA AI Foundation Models 是一系列精心策划的企业级预训练模型,为开发者在企业应用中引入定制的生成型人工智能提供了快速的起步。 NVIDIA 优化的基础模型加速创新 NVIDIA AI Foundation Models 可以通过简单的用户界面或 API 直接从浏览器进行体验。此外,这些模型可以通过 NVIDIA AI Foundation Endpoints 进行访问,以便在企业应用中测试模型的性能。 可用的模型包括领先的社区模型,如 Llama 2、Stable Diffusion XL…

Leave a Comment

NVIDIA Grace Hopper超级芯片为全球研究中心、系统制造商和云服务提供商提供超过40个人工智能超级计算机的动力

数十台用于科学计算的新超级计算机即将上线,由NVIDIA的突破性GH200 Grace Hopper Superchip提供支持,可用于巨型AI和高性能计算。 NVIDIA GH200使科学家和研究人员能够通过加速运行数千亿字节数据的复杂AI和HPC应用程序来解决世界上最具挑战性的问题。 在超级计算展览SC23上,NVIDIA今天宣布该超级芯片即将应用于更多全球系统,包括来自戴尔科技、Eviden、惠普企业(HPE)、联想、QCT和Supermicro。 NVIDIA Grace CPU和Hopper GPU结合起来,使用NVIDIA NVLink-C2C互连技术,GH200还是全球科学超级计算中心的引擎。 总体而言,这些由GH200提供支持的中心将提供约200亿亿次的AI性能,推动科学创新。 HPE Cray超级计算机集成了NVIDIA Grace Hopper 在丹佛的展会上,HPE宣布将提供配备NVIDIA Grace Hopper Superchip的HPE Cray EX2500超级计算机。集成解决方案将采用四个GH200处理器,扩展至数以万计的Grace Hopper Superchip节点,为组织提供无与伦比的超级计算灵活性和更快的AI训练。这个配置也将成为HPE今天推出的生成式AI超级计算解决方案的一部分。…

Leave a Comment

“英伟达与印度巨头合作,推动人工智能在全球人口最多的国家的发展”

世界上最大的民主国家正准备在巨大的规模上拥抱人工智能,从而改变自己和世界。 在孟买的新闻发布会上,印度两个最大的企业集团Reliance Industries Limited和塔塔集团宣布后,NVIDIA创始人兼首席执行官Jensen Huang详细介绍了计划,旨在将人工智能技术和技能应用于解决这个世界上人口最多的国家面临的最大挑战。 “我认为这将成为世界上最大的人工智能市场之一,”结束了一周高层会议之后,黄仅表示,他在印度与总理Narendra Modi、领先的人工智能研究人员、顶级商业领袖、新闻界人士以及该国的4000多名NVIDIA员工进行了会谈。 这些公司将合作创建一个人工智能计算基础设施和平台,用于开发人工智能解决方案。它将基于NVIDIA的技术,如NVIDIA GH200 Grace Hopper超级芯片和NVIDIA DGX Cloud。 GH200标志着计算架构的一次根本性转变,提供了异常的性能和巨大的内存带宽,而DGX Cloud是一种云中的人工智能超级计算服务,使企业更容易培训员工使用人工智能技术,内部访问技术并为客户提供生成式人工智能服务。 在与印度十几位顶级技术记者交流后,黄强调说,计算机科学专业是印度的核心竞争力,有了技术和资本的支持,印度有望建立人工智能以解决国内外的挑战。 “你们拥有数据,你们拥有人才,”黄说。“我们愿意开展业务,并为建造超级计算机带来出色的专业知识。 在与媒体的自由交流中,黄强调了印度在信息技术方面的优势,以及人工智能加速发展印度信息技术行业的潜力。 “信息技术是你们的一种自然资源。你们以惊人的规模生产它。你们在这方面非常擅长。你们将它出口到世界各地,”黄说。 印度的“人工智能时刻” 此前,在与该地区许多顶级技术领导人会晤之后,包括初创公司的先驱、人工智能倡导者和印度数字公共基础设施的关键参与者,黄称赞“印度的时刻”,称该国即将成为全球人工智能强国的关键时刻。 NVIDIA首席执行官Jensen Huang与Infosys创始人、UIDAI创始主席Nandan Nilekani在与印度重要技术领导人的会议期间。 虽然印度拥有众所周知的技术能力,包括杰出的技术大学、2500所工程学院和大约150万名工程师,但位于广阔的大都市和约65万个村庄中的14亿人,共使用数十种语言,尚未充分从这一进展中受益。…

Leave a Comment

NVIDIA DGX Cloud现已可用,以加速生成式AI训练

NVIDIA DGX云——提供可以将几乎任何公司转变为AI公司的工具——现已广泛可用,包括在Oracle云基础设施上在线提供数千个NVIDIA GPU,以及位于美国和英国的NVIDIA基础设施。 DGX云是在NVIDIA的GTC大会上于三月份发布的AI超级计算服务,它使企业能够立即访问所需的基础设施和软件,以训练先进模型用于生成式AI和其他突破性应用。 “生成式AI已经使得AI的快速采用成为各行业领先公司的业务必需品,推动许多企业寻求更加快速的计算基础设施,”全球管理咨询公司麦肯锡的首席分析师Pat Moorhead表示。 根据麦肯锡最近的估计,生成式AI每年可以为全球经济增加超过4万亿美元,将世界各行业的专有业务知识转化为下一代AI应用。 产业先驱以生成式AI改变业务 几乎每个行业都可以从生成式AI获益,早期的先驱已经在其市场上引领了变革。 医疗保健公司使用DGX云来训练蛋白质模型,以加快药物发现和临床报告的速度,并实现自然语言处理。 金融服务提供商使用DGX云来预测趋势、优化投资组合、构建推荐系统和开发智能生成式AI聊天机器人。 保险公司正在构建模型以自动化理赔处理。 软件公司正在使用它来开发以AI为动力的功能和应用程序。 其他人正在使用DGX云来构建AI工厂和有价值资产的数字孪生。 即时提供的专用AI超级计算 DGX云实例提供了企业按月租用的专用基础设施,确保客户能够快速轻松地开发大规模、多节点的训练工作负载,而无需等待常常供不应求的加速计算资源。 “NVIDIA DGX云的可用性提供了一个新的AI超级计算资源池,几乎可以即时访问,”Moorhead表示。 这种简单的AI超级计算方法消除了获取、部署和管理本地基础设施的复杂性。DGX云提供了NVIDIA DGX AI超级计算与NVIDIA AI企业软件的配套,使得企业可以使用Web浏览器访问自己的AI超级计算机。 在浏览器中的NVIDIA AI超级计算和软件 DGX云的每个实例都配备了8个NVIDIA…

Leave a Comment