无障碍性是所有设计师在构建空间或产品之前必须考虑的关键要素,然而传统的评估过程往往令人繁琐且耗时。 新泽西理工学院的建筑与设计助理教授马修·施瓦茨(Mathew Schwartz)正在利用NVIDIA Omniverse平台和通用场景描述(Universal Scene Description)框架(即OpenUSD)来帮助建筑师、室内设计师和工业设计师解决这一挑战。 施瓦茨的研究与设计实验室SiBORG(模拟、生物力学、机器人和图形)专注于理解和改进设计工作流程,尤其是与无障碍性、人因和自动化相关的工作流程。施瓦茨和他的团队开发算法用于研究项目,并将其转化为可用产品。 利用Omniverse这一开发平台,团队开发了基于OpenUSD的开源代码,可以自动生成建筑设计复杂的无障碍性图表。这一代码基于施瓦茨的研究论文《以人为中心的无障碍性图表用于环境分析》。 该图表提供人体运动相关的反馈,例如完成某一路径所需的估计能量消耗、完成路径所需的步数,或者沿途的任何斜坡角度。 借助Omniverse,团队可以使用施瓦茨的代码可视化图表及其生成的路径。这可以帮助设计师更好地评估建筑规范和人员安全性,并提供重要的无障碍性见解。 https://blogs.nvidia.com/wp-content/uploads/2023/12/Pathloop.mp4 OpenUSD 的威力 传统上,在建筑设计过程中,对无障碍性和环境条件的反馈通常局限于建筑规范分析。施瓦茨的工作通过无缝集成Omniverse和OpenUSD,使设计师能够克服这一障碍。 以前,他不得不在多个应用程序之间切换,以完成模拟和建模项目的不同方面。他的工作流程经常涉及Unity等支持人体模拟的工具和McNeel Rhino3D等具备3D建模功能的工具。 通过OpenUSD,他现在可以将研究、Python代码、3D环境和渲染以及常用工具集成到Omniverse中。 “让我对Omniverse着迷的是,它使我能够将Python应用程序编程界面与强大的物理、渲染和动画软件结合起来,”他说。“我的团队充分利用了Omniverse中灵活的Python API,几乎开发了整个用户界面。” 施瓦茨的团队利用Omniverse以与现有的开源Python代码进行可视化和交互,而无需进行外部工作,例如无缝链接到第三方应用程序。实验室的多才多艺的数据分析工具可以与与OpenUSD兼容的任何程序进行交互。 “通过OpenUSD和Omniverse,我们能够扩大我们的研究范围,将数据分析和可视化与设计过程无缝结合起来,”施瓦茨说。 运行逼真的渲染和模拟 施瓦茨还使用Omniverse来模拟人群的移动和互动。 他利用两个NVIDIA RTX…
Leave a Comment308 search results for "NVIDIA"
在反映人工智能(AI)技术全球主导地位竞争的关键举措中,NVIDIA首席执行官Jensen Huang确认了公司致力于优先满足日本对AI处理器的高需求的承诺。这一承诺与日本雄心勃勃的努力相一致,旨在振兴其半导体基础设施,并在AI技术发展方面取得重大进展。 日本需求飙升 在最近的一份声明中,黄仁勋承认了日本对NVIDIA AI处理器的巨大市场需求。在东京首相菅义伟的官邸举行的新闻发布会上,黄仁勋强调了紧迫性,表示:“需求非常旺盛,但我向首相保证我们将尽最大努力优先满足日本对GPU的需求。” 日本的半导体复兴 曾经是全球半导体技术领导者的日本正在重建其在该行业的地位。该国正在大力投资半导体基础设施,以赶上人工智能技术的快速发展。NVIDIA的图形处理单位(GPU)已成为AI市场的主导者,对于日本的复兴至关重要。 为芯片投资提供财务支持 不到两周前,日本通过了一份额外预算,拨款约2万亿日元(1360亿美元)用于芯片投资。这笔财政注资预计将支持半导体行业中的重要参与者,包括台湾积体电路制造股份有限公司(TSMC)以及半导体制造合资企业Rapidus。值得注意的是,Rapidus计划在日本北部的北海道岛上生产尖端芯片。 建设日本的半导体独立 Jensen Huang对日本的半导体行业表示乐观。他表示:“日本正在发展的行业将会生产GPU。”这反映了一个更广泛的趋势,包括日本在内的许多国家认识到拥有自己的数据的重要性。他们旨在建立AI工厂并培育国内的AI智能能力。 另请阅读:NVIDIA朝着首个万亿美元AI芯片公司迈进 我们的观点 在快速发展的技术领域中,NVIDIA优先满足日本对AI处理器需求的承诺突显了合作在推动AI能力方面的战略重要性。随着日本努力恢复其半导体实力,与像NVIDIA这样的行业领导者合作成为实现技术自给自足的关键。NVIDIA的尖端AI技术与日本半导体创新的复兴交汇点,标志着全球技术竞争的重要时刻。随着各国越来越意识到在AI领域确保自身地位的重要性,这样的合作成为构建技术强大未来的关键组成部分。
Leave a Comment在云端开发更智能的机器人即将获得速度倍增器。 NVIDIA Isaac Sim和NVIDIA L40S GPUs即将登陆亚马逊云服务,使开发者能够在云端构建和部署加速机器人应用。Isaac Sim是一个可扩展的人工智能机器人模拟器,构建于NVIDIA Omniverse开发平台,用于构建和连接OpenUSD应用程序。 L40S GPU将强大的人工智能计算与图形和媒体加速相结合,旨在为下一代数据中心工作负载提供动力。基于Ada Lovelace架构,L40S可以实现超高速实时渲染,与上一代相比,Omniverse的性能提升高达3.8倍,提升了工程和机器人团队的能力。 加速度的世代跃迁使得在使用Isaac Sim进行一系列机器人模拟任务时,与A40 GPU相比,获得了2倍的性能提升。 L40S GPU还可以用于生成式人工智能工作负载,从几小时内对大型语言模型进行精调,到文本到图像和聊天应用的实时推理。 NVIDIA L40S在AWS Marketplace上的新Amazon Machine Images (AMIs)将使机器人工程师们能够轻松访问预配置的虚拟机,以执行Isaac Sim工作负载。 模拟中的机器人开发加速了应用部署的过程,为零售业、食品加工业、制造业、物流等行业注入了强大动力。 根据ABI…
Leave a Comment领先的制药和技术生物公司的研究人员和开发人员现在可以通过亚马逊网络服务(AWS)轻松部署NVIDIA Clara软件和服务,加速医疗保健领域的发展。 该计划于AWS re:Invent上宣布,为使用AWS云资源的医疗保健和生命科学开发人员提供了灵活性,可以集成NVIDIA加速的产品,例如NVIDIA BioNeMo——一种用于药物发现的生成式人工智能平台,即将在AWS上推出NVIDIA DGX Cloud,目前可通过AWS ParallelCluster集群管理工具和Amazon SageMaker机器学习服务使用。 全球数千家医疗保健和生命科学公司使用AWS。现在,他们将能够使用BioNeMo访问专有数据构建或定制数码生物学基础模型,并使用NVIDIA GPU加速的AWS云服务器来扩大模型的培训和部署。 包括Alchemab Therapeutics、Basecamp Research、Character Biosciences、Evozyne、Etcembly和LabGenius在内的生物技术创新者已经是AWS的用户,并且已经在使用BioNeMo进行生成式人工智能加速的药物发现和开发。这种合作使他们能够更快速地扩展云计算资源,以开发基于生物分子数据的生成式人工智能模型。 此次宣布扩展了NVIDIA在AWS上已有的面向医疗保健的产品——用于医学成像工作流程的NVIDIA MONAI和加速基因组学的NVIDIA Parabricks。 AWS新推出:NVIDIA BioNeMo推进生成式人工智能的药物发现 BioNeMo是一个针对数码生物学生成式人工智能的领域专用框架,包括预训练的大型语言模型 (LLMs)、数据加载器和优化的训练配方,可以帮助加速计算机辅助药物发现的目标识别、蛋白质结构预测和药物候选筛选。 药物发现团队可以利用他们的专有数据使用BioNeMo构建或优化模型,并在基于云的高性能计算集群上运行这些模型。 其中的一个模型ESM-2是一款功能强大的LLM,支持蛋白质结构预测,几乎能够线性扩展至256个NVIDIA H100…
Leave a Comment亚马逊弹性计算云(Amazon EC2)加速计算产品系列为您的人工智能(AI)、机器学习(ML)、图形和高性能计算(HPC)工作负载提供了最广泛的加速器选择我们很高兴地宣布,该产品系列将通过三个全新的实例来扩展,这些实例采用了最新的NVIDIA GPU:亚马逊EC2 P5e实例搭载[…]
Leave a Comment英伟达今天推出了一项用于医学影像人工智能的云服务,通过完全托管的基于云的应用程序编程接口,进一步简化和加速地创建基准数据和训练专门的人工智能模型。 在芝加哥举行的北美放射学学会年会上宣布的英伟达MONAI云API——提供了一条加速开发人员和平台提供商将人工智能整合到医学影像产品中的快速路径。这些API使用英伟达和伦敦国王学院创办的开源MONAI项目构建。 医学影像在整个医疗保健领域至关重要,约占约90%的医疗数据。放射科医师和临床医生用它进行筛查、诊断和干预,生物药物研究人员用它评估临床试验患者对新药物的反应,医疗设备制造商用它提供实时决策支持。 在这些领域的工作规模需要一个专门的医学影像人工智能工厂——一个企业级平台,提供大规模的数据管理、创建基准注释、加速模型开发和建立无缝的人工智能应用部署。 通过英伟达MONAI云API,解决方案提供商可以更轻松地将人工智能整合到他们的医学影像平台中,使他们能够为放射科医师、研究人员和临床试验团队提供强大的工具,构建专门领域的人工智能工厂。这些API可以通过英伟达DGX Cloud AI超级计算服务的早期访问模式使用。 英伟达MONAI云API已经集成到Flywheel中,这是一个支持端到端人工智能开发工作流程的领先医学影像数据和人工智能平台。医学图像注释公司RedBrick AI和机器学习运营平台提供商Dataiku的开发人员正准备将英伟达MONAI云API整合到他们的产品中。 医学影像的即时数据标注和训练 构建高效、具有成本效益的人工智能解决方案需要一个健壮的、专门领域的开发基础,其中包括针对软件的全栈优化、可扩展的多节点系统和最先进的研究。它还需要高质量的基准数据,对于需要高级专业技能进行标注的3D医学影像来说,这可能是艰难而耗时的。 英伟达MONAI云API具备由VISTA-3D(Vision Imaging Segmentation and Annotation)基础模型驱动的交互式标注功能。它专为连续学习而设计,这一功能可根据用户反馈和新数据提高人工智能模型的性能。 VISTA-3D是通过对来自超过4000名患者的3D CT扫描图像进行注释数据集训练而得到的,涵盖了各种疾病和身体部位,可加速用于医学影像分析的3D分割掩模的创建。随着连续学习,人工智能模型的注释质量会随时间提高。 为了进一步加速人工智能训练,该版本还包括使基于MONAI预训练模型构建自定义模型变得无缝的API。英伟达MONAI云API还包括Auto3DSeg,它自动化了给定的3D分割任务的超参数调优和人工智能模型选择,简化了模型开发过程。 英伟达研究人员最近在MICCAI医学影像会议上使用Auto3DSeg赢得了四项挑战。其中包括用于分析肾脏和心脏的3D CT扫描的人工智能模型,以及用于大脑MRI和心脏的3D超声。 解决方案提供商和平台构建者拥抱英伟达MONAI云API 医学影像解决方案提供商和机器学习平台正在使用英伟达MONAI云API向客户提供至关重要的人工智能洞见,加速他们的工作。 Flywheel通过NVIDIA AI…
Leave a Comment在亚马逊音乐的动态流媒体世界中,每一次搜索歌曲、播客或播放列表都抱有一个故事、一种情绪或一股等待揭示的情感洪流这些搜索成为探索新事物、珍贵经历和持久记忆的门户搜索栏不仅仅是找歌曲的工具;[…]
Leave a CommentRoche集团的成员Genentech正在开创性地使用生成型人工智能来发现和开发新的治疗方法,并以更高效的方式向患者提供治疗。 Genentech,这家生物技术先驱与NVIDIA之间的新合作旨在通过将两家公司的专家汇聚在一起,优化和加速Genentech专有的算法,从而改变发现和开发新药物的方式。 NVIDIA将与Genentech合作,加速在NVIDIA DGX Cloud上进行这些模型,该平台提供由NVIDIA云服务提供商合作伙伴托管的专用AI超级计算机实例和软件。 Genentech计划使用NVIDIA BioNeMo,该平台能够使生物技术公司以规模化方式定制模型,并将BioNeMo云应用程序接口直接整合到计算药物发现工作流程中。 BioNeMo现已作为训练服务提供,它是一个领域特定的平台,简化、加速和扩展了计算药物发现的生成型人工智能应用程序。它使研究人员能够在DGX Cloud上对最先进的模型进行预训练或微调。 这次合作最初的重点将放在优化Genentech的药物发现AI模型上,以实现“实验室循环”框架。目标是使研究人员能够理解复杂的生物分子模式和关系,真正颠覆药物研发,提高研发的成功率,并赋予科学家为患者和更广泛的医疗生态系统带来乘法效益,而不是线性或加法效益。 Genentech研究与早期发展执行副总裁Aviv Regev表示:“我们与NVIDIA的合作建立在长期以来在技术方面取得成功并在最初并不显而易见的领域部署技术的基础上。我们是第一家利用分子生物学进行药物发现和开发的生物技术公司,改变了世界。我们开创了抗体治疗的范式。现在,我们将人工智能、实验室和临床结合在一起,以揭示海量数据中无法访问的模式,并设计实验来测试这些模式。与NVIDIA的合作,引入生成型AI,有能力快速推动发现和设计改进全球患者生活的治疗方法。” 通过计算简化药物发现 目前,药物发现和开发是一个耗时、复杂且昂贵的过程。预测新药物的药靶是困难的,同样成功将分子开发为潜在的治疗药物也是如此。人工智能可以发挥转变性的作用,因为生成型和其他人工智能模型可以通过在大规模数据集上进行训练,帮助科学家快速识别潜在的药物分子和相互作用。 对于Genentech来说,使用人工智能有助于弥合实验室实验和计算算法之间的差距。 该公司的研发团队gRED已经在多个领域使用人工智能进行了重要工作,以发现和开发新的治疗方法,并更多地了解生物学和疾病的基本构建块。 Genentech和NVIDIA的团队将共同努力,优化Genentech定制开发的模型,以缩短药物发现和开发这一耗时的过程,并取得更大的成功。 将人工智能纳入循环 Genentech的“实验室循环”是一个迭代框架,用于生成和探索具有预测特性的分子设计。它旨在使用实验数据来建立生成型计算模型,并更好地优化未来的分子设计。NVIDIA将帮助Genentech通过加速训练和推断Genentech的药物发现模型来优化其框架。 通过这种合作,NVIDIA的人工智能专家将获得有关药物发现和开发中与AI相关的挑战的见解。NVIDIA计划利用这些见解来改进其BioNeMo平台和其他平台,以进一步适应生物技术行业使用的模型的要求。 NVIDIA的医疗保健副总裁Kimberly Powell表示:“人工智能在加速药物发现和开发方面可以发挥转变性的作用,就像在医疗保健和生命科学的其他许多领域一样。 NVIDIA与Genentech共同开发和实施的人工智能模型和算法使我们能够快速迭代和发现洞见,从而推动科学创新。” 订阅NVIDIA医疗资讯。
Leave a Comment“` 在最近的时期,随着人工智能的极度流行,自动语音识别(ASR)领域取得了巨大的进步。它改变了语音激活技术和人机交互的面貌。有了ASR,机器可以将口语转化为文字,这对于各种应用来说都是必不可少的,包括虚拟助手和转录服务。研究人员一直在努力寻找底层算法,因为需要更精确、有效的ASR系统。 在NVIDIA最近的研究中,一队研究人员研究了连接时序分类(CTC)模型的缺点。在ASR流水线中,CTC模型已成为获得很高准确度的主要竞争者。这些模型尤其擅长处理语音语言的细微差别,因为它们非常擅长解释时序序列。尽管准确,但传统的基于CPU的波束搜索解码方法限制了CTC模型的性能。 波束搜索解码过程是准确转录口语的关键阶段。传统的贪婪搜索方法使用声学模型来确定每个时间步长最有可能选择的输出令牌。在处理上下文偏差和外部数据时,这种方法面临许多挑战。 为了克服所有这些挑战,该团队提出了基于GPU加速的加权有限状态传递器(WFST)波束搜索解码器作为解决方案。这种方法旨在与当前的CTC模型无缝集成。有了这个GPU加速的解码器,可以提高ASR流水线的性能,同时提高吞吐量、降低延迟,并支持即时合成以进行针对特定话语的单词增强等功能。建议的GPU加速解码器特别适用于流式推理,因为它具有更高的流水线吞吐量和更低的延迟。 该团队通过在离线和在线环境中测试解码器来评估这种方法。与最先进的CPU解码器相比,GPU加速解码器在离线场景中的吞吐量提高了多达七倍。在在线流媒体场景下,GPU加速解码器实现了超过八倍的较低延迟,同时保持相同或更高的词错误率。这些研究结果表明,使用建议的GPU加速WFST波束搜索解码器可以显著提高效率和准确性。 总而言之,这种方法绝对可以在克服CTC模型中基于CPU的波束搜索解码的性能限制方面发挥出色。建议的GPU加速解码器是CTC模型在离线和在线环境中最快的波束搜索解码器,因为它提高了吞吐量,降低了延迟,并支持高级功能。为了帮助解码器与基于Python的机器学习框架集成,该团队在GitHub上提供了预构建的基于DLPack的Python绑定。这项工作增加了建议解决方案对于使用ML框架的Python开发人员的可用性和可访问性。代码存储库可以在https://github.com/nvidia-riva/riva-asrlib-decoder访问,其中描述了CUDA WFST解码器作为C++和Python库。 “`
Leave a Comment如今,免费的开源大型语言模型(LLMs)的景象就像是一家任君选择的自助餐厅,满足企业的需求。对于开发者来说,这种丰富多样可能会让他们在构建定制的生成型人工智能应用程序时感到不知所措,因为他们需要满足独特的项目和业务需求,包括兼容性、安全性以及用于训练模型的数据。 NVIDIA AI Foundation Models 是一系列精心策划的企业级预训练模型,为开发者在企业应用中引入定制的生成型人工智能提供了快速的起步。 NVIDIA 优化的基础模型加速创新 NVIDIA AI Foundation Models 可以通过简单的用户界面或 API 直接从浏览器进行体验。此外,这些模型可以通过 NVIDIA AI Foundation Endpoints 进行访问,以便在企业应用中测试模型的性能。 可用的模型包括领先的社区模型,如 Llama 2、Stable Diffusion XL…
Leave a Comment数十台用于科学计算的新超级计算机即将上线,由NVIDIA的突破性GH200 Grace Hopper Superchip提供支持,可用于巨型AI和高性能计算。 NVIDIA GH200使科学家和研究人员能够通过加速运行数千亿字节数据的复杂AI和HPC应用程序来解决世界上最具挑战性的问题。 在超级计算展览SC23上,NVIDIA今天宣布该超级芯片即将应用于更多全球系统,包括来自戴尔科技、Eviden、惠普企业(HPE)、联想、QCT和Supermicro。 NVIDIA Grace CPU和Hopper GPU结合起来,使用NVIDIA NVLink-C2C互连技术,GH200还是全球科学超级计算中心的引擎。 总体而言,这些由GH200提供支持的中心将提供约200亿亿次的AI性能,推动科学创新。 HPE Cray超级计算机集成了NVIDIA Grace Hopper 在丹佛的展会上,HPE宣布将提供配备NVIDIA Grace Hopper Superchip的HPE Cray EX2500超级计算机。集成解决方案将采用四个GH200处理器,扩展至数以万计的Grace Hopper Superchip节点,为组织提供无与伦比的超级计算灵活性和更快的AI训练。这个配置也将成为HPE今天推出的生成式AI超级计算解决方案的一部分。…
Leave a Comment来自MIT和NVIDIA的研究人员提出了两种加速稀疏张量处理的技术(张量是机器学习模型中的基本数据结构,是组织和存储数据的多维数组)。这两种新技术的目标都是有效利用张量中的零值。可以对这些张量进行处理而不处理零值,从而节省内存和计算资源。例如,任何与零相乘的操作都会得到零,因此可以跳过该操作。此外,它还可以压缩张量,因为不需要保留零值,这样可以在芯片内存中存储更多数据。 当通过将一些值替换为零来删除不必要的元素时,张量中的稀疏性就会出现,这个过程称为修剪。非零值的位置和稀疏度的程度在不同的模型中可能不同。为了方便在大型模型中定位非零值,研究人员经常限制非零值的位置。硬件加速器的适应性受到限制,因为它们通常针对特定的稀疏模式设计。 研究团队开发了一种名为HighLight的硬件加速器,它能够高效处理各种稀疏模式。研究人员利用分层结构的稀疏性来有效表示由简单模式组成的不同类型的稀疏模式。在这种方法中,将一组数分解为较小的组,每个组都遵循一个简单的模式。然后将这些较小的组合并成较大的组,形成一个层次结构。每个组合集也遵循一个简单的模式(例如,在具有四个组的一级中,一个组有零值,而其他三个组没有)。这个过程在较大的层次中继续进行,但在每个步骤中模式都保持简单。 这种简单性使得HighLight能够更高效地查找和跳过零值,从而充分利用切除多余计算的机会。与其他方法相比,他们的加速器设计的能耗时延乘积(与能源效率相关的度量)提高了大约6倍。 研究人员还可以利用稀疏性更高效地移动和处理计算机芯片上的数据。由于张量通常比芯片上的内存缓冲区能够存储的要大,芯片每次只能抓取和处理张量的一个块,这些块称为tiles。为了最大化缓冲区的容量并最小化芯片访问外部内存的频率。 为了最大化缓冲区的容量并减少芯片需要访问外部内存的次数(这可能会耗费大量能源并使处理速度变慢),研究人员旨在使用适合缓冲区的最大可能tile尺寸。 由于许多数据值是零,相较于其原始容量可能暗示的,较大的tile可以适应缓冲区,因为不需要存储零值。然而,零值的数量在数据的不同部分可能不同,因此对于每个tile也可能不同。 为了处理这个问题,研究小组建议使用过高预订(overbooking)技术来允许tile尺寸的增加。在稀疏数据集中,可以选择一个tile尺寸,使得大部分tile具有足够的零值以适应缓冲区。偶尔,某个tile的非零值可能超过缓冲区的容量。在这种情况下,这些多余的数据将被推出缓冲区。 研究小组使硬件能够只检索被移出缓冲区的数据,而不需要重新获取和处理整个tile。他们通过修改缓冲区的“尾端”来实现这一点,因此这种技术被称为Tailors。 此外,他们还开发了一种名为Swiftiles的方法,可以高效确定tile尺寸,并充分利用过高预订的优势。Swiftiles减少了硬件必须检查张量以寻找最佳tile尺寸的频率,从而节省了计算资源。 Tailors和Swiftiles的结合提供了性能提升,将速度提高了一倍,同时仅需现有不能处理过高预订的硬件加速器的一半能耗。 根据研究人员的说法,Swiftiles可以在不需要多次迭代来优化估计值的情况下估计出最佳的tile尺寸。这个过程可以实现是因为它支持过高预订。即使存在较大的估计误差,也可以因为非零值的特定分布而实现显著的加速。
Leave a Comment通过模仿学习人类示范,可以训练机器人执行各种操作行为。一种流行的方法涉及通过各种控制界面,让人类操作员与机器人臂进行远程操纵,产生机器人执行不同操作任务的多个示范,并使用这些数据训练机器人独立执行这些任务。最近的努力尝试通过与更多的人类操作员在更广泛的功能范围内收集更多的数据来扩展这个范例。这些研究已经证明,在大规模、多样化的数据集上进行模仿学习可以取得令人印象深刻的性能,使机器人能够推广到新的物体和未知的任务。 这意味着收集大量丰富的数据集是创建广泛熟练的机器人的关键第一步。但是,这一成就只有通过昂贵和耗时的人工工作才能实现。看一个机器人模仿案例研究,该案例中,机器人的任务是将一只可乐罐从一个垃圾桶移动到另一个垃圾桶。尽管只有一个场景、一个物品和一个机器人参与这个简单的任务,但需要一个庞大的数据集200个演示才能达到73.3%的相对成功率。对于最近尝试扩展到具有不同场景和物品的环境的努力,需要更大规模的数据集,包括数万个演示。例如,它表明,只有使用超过20,000个轨迹的数据集,才能推广具有物体和目标微小变化的挑战。 图1:研究人员提供了一个数据生成系统,通过重新利用人类示范使其在新的情境中变得有用,可以从少量人类示范中生成大量不同的数据集。他们使用MimicGen为各种物品、机器人装备和场景设置提供数据。 在约1.5年的RT-1数据收集工作中,涉及到多位人类操作员、多个月份、多个厨房和机器人臂,以97%的成功率成功地重新安排、清理和恢复物品。然而,在现实世界的厨房中实现这样一个系统所需要的年数仍待发现。他们问:“这些数据在多大程度上包含不同的操作行为?”这些数据集可能包括在不同的环境或情况下使用的类似的操作技术。例如,当抓取一个杯子时,无论杯子放在台面的何处,人类操作员的机器人轨迹可能是非常相似的。 将这些轨迹调整到不同的情况中可以帮助产生各种各样的行为。虽然有希望,但这些方法的应用受到其对特定任务和算法的假设的限制。相反,他们希望创建一个可以轻松整合到当前模仿学习过程中并增强各种活动性能的通用系统。在这项研究中,他们提供了一种独特的数据收集技术,该技术可以使用少量的人类示例自动生成跨多种场景的大规模数据集。他们的技术MimicGen将有限数量的人类示范拆分为以物品为中心的部分。 然后,它选择一个人类示范,对每个以物品为中心的部分进行空间改变,将它们拼接在一起,并指导机器人按照这条新路径进行操作,在不同的情境中采集最新的示范,其中包含不同的物体姿势。尽管方法简单,但他们发现这种方法非常擅长从各种情境中生成庞大的数据集。这些数据集可用于模仿学习,以训练能胜任的智能体。 他们的贡献包括以下内容: • NVIDIA和UT Austin的研究人员提出了MimicGen技术,该技术利用新的情境适应性,从有限数量的人类示范中创建大规模、多样化的数据集。 • 他们展示了MimicGen可以在各种场景配置、物体实例和机器人臂上提供高质量的数据,这些数据在原始示范中没有包含,以通过模仿学习训练熟练的智能体(见图1)。拾取和放置、插入和与关节式物体的互动仅是MimicGen广泛适用于的许多长期和高精度活动中的几个例子,这些活动需要具备不同的操作能力。只使用200个源人类示范,他们为两个模拟器和一个真实的机器人臂的18个任务生成了50,000多个额外的演示。 • 他们的方法与收集更多人类示范相比表现相当;这就引发了一个重要的问题,即何时需要向人类请求额外数据。使用MimicGen生成相同数量的合成数据(例如,从10个人类生成200个示范与从200个人类生成200个示范)会导致相似的代理性能。
Leave a Comment在越南,当病人进入医疗机构感到困扰时,医生利用英伟达技术进行更准确的扫描以诊断他们的疾病。在香港,另一组医生利用生成式人工智能发现治疗患者的新方法。 改善市民的健康和福祉,增强经济和社区的发展是2023年亚太经济合作组织(APEC)峰会即将在旧金山召开的关键主题。 当他们会面讨论改善市民和社会生活的大胆解决方案时,英伟达的人工智能和加速计算项目是一个关键的推动者。 英伟达致力于改善日常人群的结果,同时解决未来的挑战,这是多年来与APEC合作伙伴的深度投资的积累。英伟达在该地区的业务非常强大,包括数以千计的员工和在农业、医疗保健和教育等领域的众多合作项目,致力于提供新技术和员工培训计划,以增强产业发展和推进生成式人工智能研究。 除了技术进步,这些努力还推动经济增长,创造高薪工作机会,并提高全球人民的健康和福祉。 研究和国家计算合作伙伴关系 英伟达与几个APEC经济体建立了先进的人工智能研究合作伙伴关系。这些合作促进人工智能和高性能计算方面的科学突破,以应对包括医疗保健、技能发展和创建更强大的本地人工智能生态系统等国家挑战。例如: 澳大利亚的国家科学与研究机构CSIRO与英伟达合作,推进澳大利亚的人工智能计划,涵盖气候行动、空间探索、量子计算和人工智能教育等领域。 新加坡的国家超级计算中心和教育部与英伟达合作,重点推动主权级人工智能能力发展,特别关注医疗保健、气候科学和数字孪生等领域。 泰国是东南亚首个参与英伟达“人工智能国家”项目的国家,将教育部与一系列顶尖大学的联盟组织在城市规划、公共卫生和自动驾驶等领域开展公私合作。 在越南,英伟达与越南最大的雇主Viettel以及越南科学技术学院合作,提升员工技能,加速将人工智能服务引入工业,部署下一代5G服务。 创新生态系统 创业公司是人工智能创新的前沿,健康的创业公司生态系统对于推动APEC经济体内的技术发展至关重要。 英伟达加速是一个免费计划,帮助创业公司更快地创新。通过该计划,英伟达支持APEC内的5000多家创业公司,并且全球支持超过15000家创业公司,提供尖端技术、与风险投资家的联系,以及最新的技术资源。 在2023年,英伟达将近1000家APEC地区的创业公司加入了该计划。除了创造经济机会,加速还支持中小型企业开发创新解决方案来应对社会面临的一些最大挑战。以下是其中一些成员的情况: 在马来西亚,Tapway使用人工智能技术来减少拥堵,为每天超过100万名乘客提供交通资源优化。 在新西兰,Lynker利用地理空间分析、深度学习和遥感技术进行地球观测。Lynker的技术可以测量农场的碳吸收情况,检测、监测和恢复湿地,并实现更有效的灾害救援。 在泰国,AltoTech Global与加速合作伙伴,将人工智能软件与物联网设备整合,优化酒店、建筑、工厂和智能城市的能源消耗。AltoTech的最终目标是为实现零碳经济做出贡献,并帮助客户实现零碳目标。 数字技能提升和增长工具 英伟达深度学习研究所(DLI)提供人工智能培训和数字技能提升计划,培养创新并创造经济机会。 DLI的培训和认证计划旨在帮助个人和组织加快在人工智能、高性能计算和工业数字化方面的技能发展和劳动力转型。 课程由NVIDIA专家创建和教授,提供实践操作、自主学习和带领学习的方式,将现实世界的经验和深厚的技术知识带给开发人员和IT专业人员。 通过该计划,NVIDIA已经培训了超过11.5万名APEC经济体的个人,其中今年有超过1.6万名新学员。 此外,NVIDIA开发者计划为APEC经济体的200多万开发人员提供软件开发工具包、应用程序接口、预训练的人工智能模型和性能分析工具,帮助开发人员创造和创新。会员可以免费获得实际操作的培训、访问开发者论坛以及提前获得新产品和服务的权限。…
Leave a Comment将Apple Silicon M2 Max GPU与Nvidia V100、P100和T4进行比较,用于使用TensorFlow训练MLP、CNN和LSTM模型的性能
Leave a Comment视觉特效艺术家Surfaced Studio回到NVIDIA工作室,在那里分享他在全新Razer Blade 16 银色版笔记本电脑上创建的真实世界VFX项目,该笔记本电脑配备GeForce RTX 4080显卡。 Surfaced Studio创造了逼真的数字生成图像,将视觉效果无缝地融合到短片、电视和游戏中。 他通过尝试3D转场来寻找最新科幻项目的灵感:将笔记本屏幕作为从一个世界到另一个世界的门户,就像《奇异博士》中的传送门或《黑客帝国》中的过渡效果。 打破规则,成为英雄 Surfaced Studio的目标是通过他的最新项目打造沉浸式体验。 他解释道:“我希望让观众在被‘吸入’3D世界时感到惊讶。” Surfaced Studio从一个简单的脚本开始,辅以头脑风暴的想法草图和实际拍摄的镜头。“这通常有助于我思考如何完成每个效果以及它们是否可行,”他说。 然后,他拍摄视频并将镜头导入Adobe Premiere Pro进行初步测试剪辑。然后,Surfaced Studio选择最合适的镜头作为使用。 他在Adobe After Effects中清理镜头,使用Warp Stabilizer工具稳定镜头,并使用Mocha Pro工具移除干扰的背景元素。这两种效果都是由他的GeForce…
Leave a Comment由NVIDIA研究开发的新型人工智能代理能够教会机器人复杂的技能,现已训练出机器手以与人类一样轻松地完成快速旋笔技巧。 在上面的视频中展示的惊人表现是机器人通过Eureka学会的近30项任务之一,Eureka自主编写奖励算法以训练机器人。 Eureka还教会了机器人如何打开抽屉和橱柜、抛接球和操作剪刀等任务。 今天发布的Eureka研究包括一篇论文和项目的人工智能算法,开发者可以使用NVIDIA Isaac Gym进行实验,这是一个用于强化学习研究的物理模拟参考应用程序。Isaac Gym建立在NVIDIA Omniverse上,这是一个基于OpenUSD框架构建3D工具和应用程序的开发平台。Eureka本身由GPT-4大型语言模型驱动。 NVIDIA高级AI研究主管Anima Anandkumar表示:“在过去的十年中,强化学习取得了令人瞩目的成就,但仍存在许多挑战,例如奖励设计仍然是一个试错过程。Eureka是开发整合生成和强化学习方法解决难题的新算法的第一步。” AI训练机器人 根据论文,Eureka生成的奖励程序——用于机器人的试错学习——在超过80%的任务上都优于由专家编写的奖励程序,这使得机器人的平均性能提高了50%以上。 https://blogs.nvidia.com/wp-content/uploads/2023/10/franka_cabinet.mp4 由Eureka教会的机器臂打开抽屉。 这个AI代理使用GPT-4 LLM和生成AI来编写奖励机器人进行强化学习的软件代码。它不需要具体的任务提示或预定义的奖励模板,并且可以根据人类的反馈快速调整奖励以更准确地实现开发者的愿景。 在Isaac Gym的GPU加速模拟中,Eureka可以快速评估大量奖励候选项的质量,从而实现更高效的训练。 Eureka随后构建了关于训练结果的关键统计数据的摘要,并指导LLM改进奖励函数的生成。通过这种方式,人工智能实现了自我提升。它教会了各种各样的机器人,包括四足、两足、四旋翼、灵巧手臂、协作机械臂等完成各种任务。 研究论文对20项Eureka训练任务进行了详细评估,基于需要机器手展示各种复杂操纵技能的开源灵巧性基准。 来自九个Isaac Gym环境的结果通过使用NVIDIA Omniverse生成的可视化展示。 https://blogs.nvidia.com/wp-content/uploads/2023/10/humanoid.mp4 人形机器人通过Eureka学会奔跑步态。…
Leave a Comment“` 来自Nvidia和伊利诺伊大学香槟市的研究人员介绍了Retro 48B,这是一个比之前的检索增强模型Retro(7.5B参数)更大的语言模型。 Retro 48B使用广泛的语料库进行了预训练,并提高了困惑度。 InstructRetro中的编码器可以被消除,表明持续的检索增强预训练可以提高解码器在问题回答方面的性能。 检索增强语言模型已经在开放域问题回答中得到验证,无论是在预训练还是推理过程中都受益。他们的方法降低了模型的困惑度,提高了事实准确性,并在精调后的任务性能上进行了增强。与仅有解码器的模型相比,现有的检索增强模型在大小上受到限制,限制了其在指令调整后的零-shot泛化潜力。指令调整对于自然语言理解至关重要,得益于高质量的数据集,如FLAN,OpenAssistant和Dolly,可以在聊天和问答任务中实现更高的性能。 使用检索进行语言模型的预训练,例如Retro,已经显示出降低困惑度和提高事实准确性的潜力。然而,现有的检索增强模型需要更多的参数和训练数据,影响了它们在指令调整和其他大型语言模型典型任务中的性能。他们的研究引入了Retro 48B,这是最大的检索增强模型,继续用额外的令牌进行43B GPT模型的预训练。通过这个过程获得的InstructRetro,在零-shot问题回答方面显著改善,与传统GPT模型相比。当编码器取消时,InstructRetro的解码器实现了类似的结果,证明了检索增强预训练在上下文整合问题回答方面的有效性。 他们的研究探索了一个包括预训练GPT模型来创建Retro 48B、指导其增强零-shot问题回答能力,并在各种任务中评估其性能的广泛过程。研究介绍了一个新颖的48B大小的检索增强语言模型InstructRetro,经过指令调整后,在零-shot问题回答任务中显著优于标准GPT模型。这种扩大规模的方法展示了更大的检索增强模型在自然语言理解方面的潜力。 使用检索进行预训练的Retro 48B语言模型在困惑度上超过了原始GPT模型。经过指令调整后,即InstructRetro,它显著提高了零-shot问题回答的准确性,与GPT对应模型相比,短格式任务上平均提升7%,长格式提升10%。令人惊讶的是,仅仅使用InstructRetro的解码器骨干部分就能够达到类似的结果,表明检索增强的预训练在上下文整合问题回答方面的有效性。 引入InstructRetro 48B,最大的检索增强语言模型,相对于GPT对应模型显著提高了在广泛的开放式QA任务中的零-shot准确性。使用Retro增强方法进行检索预训练提高了困惑度。研究结果表明,在指令调整之前持续进行恢复的预训练为增强GPT解码器在QA中的性能提供了一个有前景的方向。令人惊讶的是,解码器实现了可比较的准确性,展示了与上下文整合相关的预训练的有效性。InstructRetro在长格式QA任务中表现出色,突显了检索增强预训练在挑战性任务中的潜力。 “`
Leave a Comment在不断变化的人工智能领域中,开发人员和用户一直面临着一个挑战:大型语言模型需要更多定制且细致的响应。尽管这些模型(如Llama 2)可以生成类似人类的文本,但它们经常需要提供真正符合个别用户独特需求的答案。现有的方法(如监督微调和基于人类反馈的强化学习)存在一定局限性,导致响应可能更加机械和复杂。 NVIDIA研究部门发布了一项突破性技术,名为SteerLM,该技术承诺解决这些挑战。SteerLM提供了一种创新且用户为中心的方法,用于定制大型语言模型的响应,通过允许用户定义指导模型行为的关键属性,从而对输出具有更多控制。 SteerLM通过四步监督微调过程来运作,简化了对大型语言模型的定制。首先,它使用人工标注的数据集训练属性预测模型,评估诸如有益性、幽默和创造力等特征。然后,它利用该模型对多样化的数据集进行注释,增强了语言模型可访问的数据的多样性。接下来,SteerLM使用属性条件的监督微调,训练模型根据指定的属性生成响应,如感知质量。最后,它通过引导式训练对模型进行优化,产生多样化的响应并进行微调以实现最佳对齐。 SteerLM的一个突出特点是其实时可调性,在推理过程中允许用户对属性进行微调,以满足他们的特定需求。这种灵活性为各种潜在应用开辟了道路,从游戏和教育到可访问性。通过SteerLM,公司可以通过单一模型为多个团队提供个性化能力,而无需为每个不同的应用重新构建模型。 SteerLM的简便性和用户友好性在其指标和性能中体现出来。在实验中,SteerLM 43B在Vicuna基准测试中胜过了现有的基于人类反馈的强化学习模型,如ChatGPT-3.5和Llama 30B RLHF。通过提供一个简单的微调过程,几乎不需要对基础设施和代码进行任何改变,SteerLM以更少的麻烦获得了出色的结果,成为人工智能定制领域的一项重大进展。 NVIDIA通过在其NVIDIA NeMo框架中发布SteerLM的开源软件,迈出了推动先进定制民主化的重要一步。开发人员现在有机会访问代码并尝试使用可在Hugging Face等平台上获得的定制13B Llama 2模型进行此技术。对于那些对训练自己的SteerLM模型感兴趣的人,也提供了详细的说明。 随着大型语言模型的不断演进,像SteerLM这样的解决方案的需求变得越来越重要,以便提供不仅智能而且真正有帮助且符合用户价值观的人工智能。借助SteerLM,人工智能社区在追求更加个性化和适应性的人工智能系统的探索中迈出了重要的一步,开启了定制人工智能的新时代。
Leave a Comment欧洲正在对著名GPU制造商Nvidia在AI芯片市场上的主导地位展开调查。华尔街日报的最新报道揭示,法国反垄断机构正在搜查Nvidia的法国办公室,旨在确定Nvidia是否从事违法的垄断行为。 法国竞争局(FCA)宣布进行了搜查,确认在图形芯片领域的某些制造商的办公室。其目的是发现任何垄断行为的迹象。尽管FCA没有点名被调查的公司,但《华盛顿每日新闻》的消息来源确认了Nvidia是调查对象。在搜查中,法国当局没收了物理和数字文件,并对Nvidia的员工进行了讯问。然而,Nvidia选择保持沉默。 在相关的发展中,彭博社援引消息人士的话称,欧洲竞争委员会目前正在与各行业利益相关者进行非正式讨论。其目标是评估Nvidia是否在企业和游戏领域操纵AI芯片市场。由于Nvidia的A100和H100芯片在AI芯片市场上占据了惊人的80%份额,像英特尔和AMD这样的传统CPU巨头正面临难以跟进的挑战。如果欧盟的调查确认存在垄断行为,Nvidia可能面临数十亿美元的罚款。 AI的流行使Nvidia受益匪浅。该公司的股票价格暴涨,最近一个季度的收入达到惊人的135.1亿美元,同比增长101%。凭借超过万亿美元的市值,Nvidia的成功是无可否认的。然而,伴随巨大的权力而来的是巨大的审查,如何处理这次欧洲调查的展开仍然待观察。
Leave a Comment编辑注:本文是我们每周的In the NVIDIA Studio系列的一部分,该系列庆祝特色艺术家,提供创意技巧,并展示NVIDIA Studio技术如何改进创意工作流程。我们还深入探讨了新的GeForce RTX 40 Series GPU的功能、技术和资源,以及它们如何显著加快内容创作。 发布一个名为《最简单的VFX教程》的三维教程,需要极大的自信和相应的技能支持。 这周的In the NVIDIA Studio系列的特色艺术家Steve Lund,也被称为CG Geek,在这方面拥有丰富的经验和技巧自然就不足为奇。他的YouTube频道已经有超过100万的订阅者,其中包括关于动画和视觉效果(VFX)的教程以及一些技术评测。 CG Geek已经是一名内容创作者超过13年了,开始时制作了关于定格动画的视频,然后转向了三维软件。电影是他主要的灵感来源。他和家人一起制作短片电影,进行视频效果和三维角色的尝试和实践,这为他当前的工作打下了重要的基础。 艺术家可以通过今天可以自取的新款Microsoft Surface Laptop Studio 2来增强他们的创意工具。它由GeForce RTX 4060、GeForce…
Leave a Comment编辑注:本文是我们每周的NVIDIA Studio系列文章的一部分,该系列文章致力于展示特色艺术家、提供创意技巧,并展示NVIDIA Studio技术如何改进创意工作流程。 NVIDIA Studio笔记本电脑系列迎来了新的微软Surface Laptop Studio 2,搭载GeForce RTX 4060、GeForce RTX 4050或NVIDIA RTX 2000 Ada Generation笔记本GPU,为创作者提供强大的性能和多功能性。 微软Surface Laptop Studio 2。 由NVIDIA Studio平台支持,今天宣布的Surface Laptop Studio 2提供了预装的Studio驱动程序,以及加速专业和创意工作流程的独家工具,确保最大的稳定性。…
Leave a Comment大型语言模型的开发即将达到超音速速度,这要归功于NVIDIA和Anyscale的合作。 在其年度Ray Summit开发者大会上,Anyscale——快速增长的可扩展计算的开源统一计算框架背后的公司——今天宣布将NVIDIA AI引入Ray开源和Anyscale平台。它还将集成到Anyscale Endpoints中,这是一项今天宣布的新服务,可方便应用开发人员使用最流行的开源模型在其应用程序中以具有成本效益的方式嵌入LLMs。 这些集成可以显著加速生成式AI的开发和效率,同时提高生产AI的安全性,从专有的LLMs到诸如Code Llama、Falcon、Llama 2、SDXL等开源模型。 开发人员可以灵活选择使用Ray部署开源NVIDIA软件,或选择在Anyscale平台上运行NVIDIA AI企业软件,以进行全面支持和安全的生产部署。 Ray和Anyscale平台被广泛用于开发人员构建用于生成式AI应用程序的先进LLMs,这些应用程序可以驱动智能聊天机器人、编码协助和强大的搜索和摘要工具。 NVIDIA和Anyscale提供速度、节省和效率 生成式AI应用引起了全球企业的关注。调整、增强和运行LLMs需要大量的投资和专业知识。NVIDIA和Anyscale共同努力,可以通过多种应用集成帮助降低生成式AI开发和部署的成本和复杂性。 上周宣布的新的开源软件NVIDIA TensorRT-LLM将支持Anyscale的产品,以提高LLM的性能和效率,从而实现成本节约。在NVIDIA AI企业软件平台中也得到支持,Tensor-RT LLM可自动扩展推理以在多个GPU上并行运行模型,与上一代GPU相比,可以在运行NVIDIA H100 Tensor Core GPU时提供高达8倍的性能。 TensorRT-LLM可以自动扩展推理以在多个GPU上并行运行模型,并包括用于各种流行LLM模型的自定义GPU内核和优化。它还实现了NVIDIA H100 Tensor Core…
Leave a Comment创建物理产品的3D扫描可能非常耗时。企业通常使用传统方法,如基于摄影测量的应用和扫描仪,但这些方法可能需要数小时甚至数天的时间。它们也并不总能提供制作模型所需的3D质量和细节水平,使其在所有应用中看起来逼真。 总部位于意大利的初创公司Covision Media利用人工智能和NVIDIA RTX技术来增强3D扫描过程和基于3D的内容创建。 Covision Media开发了基于人工智能的3D扫描仪,允许客户创建任何产品的数字孪生,包括鞋类、眼镜、运动装备、玩具、工具和家居用品。该公司是NVIDIA Inception的成员,这是一个免费计划,为初创企业提供最新资源和技术。 使用Covision的技术,客户可以快速创建3D扫描,并自动保留详细的纹理、材料、颜色、几何形状等,使图像尽可能逼真。 该技术运行在NVIDIA RTX上,使用户能够创建高质量、详细、逼真的3D模型。Covision Media还使用神经辐射场(NeRFs)来提高3D模型的质量,同时解决准确捕捉照明、反射和透明表面等典型挑战。 阿迪达斯及其合作伙伴NUREG(一个内容创作工作室)是最早使用Covision Media的3D扫描技术来自动化和扩展电子商务内容生产的公司之一。 利用RTX和AI开启3D的新可能 Covision的3D扫描仪连接到运行NVIDIA RTX A5000和RTX A6000 GPU的多个工作站上,这两款GPU提供高性能的光线追踪和强大的人工智能功能。 NVIDIA OptiX框架的光线追踪性能,结合NVIDIA RT Cores,使Covision能够精确测量扫描对象的照明情况。这是允许客户将其扫描的产品放入任何虚拟环境的最大独特因素之一。Covision还利用NVIDIA的软件基础设施开发先进的人工智能解决方案,用于其神经纹理方法。 “如果没有NVIDIA RTX…
Leave a Comment强调了NVIDIA与全球科技超级大国的日益紧密关系,印度总理纳伦德拉·莫迪(Narendra Modi)周一晚间与NVIDIA创始人兼首席执行官黄仁勋(Jensen Huang)会面。 这次会晤在新德里的7 Lok Kalyan Marg举行,该地是总理的官邸,莫迪正准备在本周晚些时候举办G20峰会,届时将有包括美国总统乔·拜登(Joe Biden)在内的世界最大经济体的领导人参加。 莫迪在社交媒体帖子中表示:“与NVIDIA首席执行官黄仁勋先生进行了一次极好的会晤。我们详细讨论了印度在人工智能领域的丰富潜力。” 此次活动标志着莫迪和黄仁勋的第二次会面,突显了NVIDIA在印度快速增长的技术产业中的作用。 与莫迪的会晤仅仅是在印度成功登陆月球南极之后的一周,进一步凸显了这个世界上最大的民主国家不断扩大的技术能力。 黄仁勋与莫迪会晤后,还与来自印度科学研究和技术的全球强国,如印度科学研究所和印度理工学院的数十名研究人员进行了非正式晚宴。 与会者代表了一批顶尖人才,涵盖的领域包括大型语言模型、天体物理学、医学、量子计算和自然语言处理等多个领域。 当晚的讨论涉及的话题广泛,包括利用技术解决语言障碍、提高农业产量、弥合医疗服务差距、转变数字经济,以及解决我们时代的一些重大科学挑战。 NVIDIA与印度有着密切的联系。该公司在约20年前开始在班加罗尔进行业务。如今,印度拥有其四个工程开发中心,分别位于古尔冈、海得拉巴、浦那和班加罗尔,印度的NVIDIAN人数已超过3800人。 此外,NVIDIA的开发者计划在印度有超过32万名开发者。NVIDIA的CUDA并行编程平台在印度每月下载约4万次,NVIDIA估计印度有6万名经验丰富的CUDA开发者。 这种增长是在印度政府不断扩大国家的信息技术基础设施的背景下实现的。 例如,一个计算网格预计不久将连接印度境内的20个城市,帮助研究人员和科学家更高效地合作和共享数据和计算资源。 这一努力进一步有望支持印度未来几年的雄心勃勃的发展目标。 莫迪设定了印度在2030年成为世界第三大经济体的目标,目前印度是第五大经济体。 莫迪还设定了在印度独立100周年的2047年,使这个南亚国家跻身发达经济体的行列。 在与莫迪会晤后的招待会上(从左起),印度政府主要科学顾问Ajay Kumar Sood,印度科学研究所计算与数据科学系主任Sashikumaar Ganesan,黄仁勋和NVIDIA南亚区董事总经理Vishal…
Leave a Comment美国政府最近宣布了一套新的出口限制措施,针对特定的NVIDIA芯片对中东某些国家实施限制此举旨在控制可能被用于未经授权的军事应用的先进技术的传播鉴于NVIDIA在人工智能和机器学习技术方面的领导地位,这些技术[…]
Leave a Comment编辑的话:本文是我们每周的”NVIDIA工作室系列”的一部分,该系列庆祝精选艺术家,提供创意技巧,展示NVIDIA工作室技术如何改进创意工作流程。我们还深入研究了新的GeForce RTX 40系列GPU功能、技术和资源,以及它们如何显著加速内容创作。 艺术形式的美丽和非凡之处可以让人忘记创意领域中内容创作带来的简单快乐和舒适逃避。 本周的”NVIDIA工作室系列”的主人公Janice K. Lee,即Janice.Journal,是一位使用人工智能加速创作过程、寻找灵感和自动化重复任务的TikTok之星。 https://blogs.nvidia.com/wp-content/uploads/2023/08/week72-nvidia-bts-video-1280w-2.mp4 此外,本周NVIDIA工作室技术为一些最受欢迎的移动和桌面应用程序提供动力,推动了有抱负的艺术家和创意专业人士的创作工作流程。 TikTok和CapCut,由NVIDIA和云端驱动 逐周,人工智能在内容创作中变得越来越普遍。 以热门社交媒体应用程序TikTok为例。其中包括AI绿屏在内的所有移动应用程序功能都由云端的GeForce RTX GPU加速。TikTok创作者工作流程的其他部分也得到了加速 —— 受欢迎的生成式AI视频编辑应用Descript AI在最新的NVIDIA L4 Tensor Core GPU上运行速度比T4 Tensor Core GPU快50%。…
Leave a Comment在全球最大的游戏会议Gamescom上,AI在游戏领域的最新进展成为焦点,NVIDIA推出了一系列技术,首先是DLSS 3.5,这是其突破性AI神经渲染技术的下一个步骤。 DLSS 3.5是NVIDIA最新的基于AI的图形技术创新,是秋季热门光线追踪游戏的图像质量升级版,包括《赛博朋克2077:幻影自由》、《艾伦·韦克2》和《带有RTX的传送门》等作品。 但NVIDIA并未止步于此。DLSS将进一步应用于更多AAA大作;AI技术将为非玩家角色(NPC)增添情感;Xbox Game Pass游戏将登陆GeForce NOW云游戏服务;GeForce NOW服务器也将进行升级。 DLSS 3.5引入光线重建技术 最重要的消息是DLSS 3.5引入了光线重建技术,这是一项开创性的功能,提升了所有GeForce RTX GPU的光线追踪图像质量,超越了传统手动调优的去噪器,采用了NVIDIA超级计算机训练的AI网络。 结果可以改善反射、全局光照和阴影等光照效果,创造出更具沉浸感和逼真度的游戏体验。 在光线追踪计算机图形中,去噪用于填补缺失的像素,以更高效地合成最终图像。NVIDIA DLSS 3.5的训练数据比DLSS 3多5倍,因此它可以识别不同的光线追踪效果,并在何时使用时间和空间数据方面做出更明智的决策。 DLSS于2019年2月首次发布,经过一系列重大升级,提高了图像质量和性能。 光线重建现在已经成为DLSS 3.5的一部分,该技术套件由GeForce RTX GPU上的Tensor…
Leave a CommentCan't find what you're looking for? Try refining your search: