在不断发展的机器人领域,研究人员引入了一项新的突破性技术:一种软体机器人,即使在复杂环境中也不需要人类或计算机的指导就能进行导航这项新发明是在之前的工作基础上进行的,该软体机器人在较简单的迷宫中展示了基本的导航技能利用物理智能进行导航的研究由Jie Yin进行
Leave a CommentTag: Robotics
“值迭代(Value Iteration,VI)通常是在强化学习(Reinforcement Learning,RL)学习路径上介绍的第一个算法之一该算法的基本细节涉及一些最…”
Leave a Comment机器人一直是科技领域的关注焦点。它们总是在科幻电影、儿童节目、书籍、反乌托邦小说等领域中占据一席之地。不久之前,它们只是科幻中的梦想,但现在它们无处不在,重塑着各行各业,并让我们瞥见未来。 从工厂到外太空,机器人正扮演主角,展示其前所未有的精确性和适应性。 机器人领域的主要目标一直是相同的:模仿人类的灵巧。通过整合手中的摄像头,无论是作为传统静态第三人称摄像头的补充还是替代品,已经取得了令人兴奋的进展,以提高操纵能力。 尽管手中的摄像头具有巨大的潜力,但它们并不能保证无误的结果。基于视觉的模型常常在现实世界的波动中遇到困难,例如背景的变化、光照的变化和物体外观的变化,从而导致脆弱性。 为了解决这个挑战,最近出现了一套新的泛化技术。不再依赖于视觉数据,而是使用多样的机器人演示数据来教授机器人特定的动作策略。这在一定程度上是有效的,但是有一个主要问题。它非常昂贵,真的非常昂贵。在真实的机器人环境中收集这样的数据意味着耗时的任务,比如运动学教学或通过VR头盔或操纵杆进行机器人远程操作。 我们真的需要依赖这种昂贵的数据集吗?既然机器人的主要目标是模仿人类,为什么我们不能只使用人类演示视频呢?人类执行任务的视频提供了一种更具成本效益的解决方案,因为人类的灵活性。这样做可以捕捉到多个示范,而无需不断重置机器人、硬件调试或费力的重新定位。这提供了一个有趣的可能性,即利用人类视频演示来提高以视觉为中心的机器人操纵器的泛化能力,规模化应用。 然而,弥合人类和机器人领域之间的差距并不是一件轻而易举的事情。人类和机器人之间外观上的差异引入了一个需要仔细考虑的分布偏移。让我们来看看新的研究,“给机器人一个帮手”,它弥合了这一差距。 现有的方法采用第三人称摄像机视角来应对这一挑战,其中涉及图像转换、领域不变的视觉表示,甚至利用关于人类和机器人状态的关键点信息的领域适应策略。 给机器人一个帮手的概述。来源:https://arxiv.org/pdf/2307.05959.pdf 相比之下,“给机器人一个帮手”采用了一种令人耳目一新的简单方法:遮盖每个图像的一个一致部分,有效地隐藏了人类手部或机器人末端执行器。这种简单的方法避开了复杂的领域适应技术的需求,使机器人能够直接从人类视频中学习操纵策略。因此,它解决了由于人到机器人图像转换而产生的明显视觉不一致性等明确领域适应方法带来的问题。 该方法可以训练机器人执行各种任务。来源:https://giving-robots-a-hand.github.io/ “给机器人一个帮手”的关键在于该方法的探索性质。它将广泛的手动视频演示与环境和任务泛化相结合。它在一系列真实世界的机器人操纵任务中取得了惊人的表现,包括到达、抓取、拾取和放置、堆叠方块、清理盘子、打包玩具等。该方法显著提高了泛化能力。与仅在机器人演示中训练的策略相比,它使策略能够适应未知的环境和新的任务,平均绝对成功率在未知环境和任务中增加了58%。
Leave a Comment机器人学是完全致力于电子和计算机科学工程领域的分支,现在与人工智能进行了多种连接。这些机器人通过人工智能进行足球比赛。这个事件被称为Robocup。每年研究人员之间都会进行广泛竞争,以展示他们的机器人参加Robocup挑战赛。 有一个名为Pyrus的介绍,它是一个基于Python的Robocup仿真平台。来自加拿大达尔豪斯大学和纪念大学的研究人员在一篇研究论文中提到,他们将使用Pyrus轻松地对模型进行训练和测试。用于Robocup的常见框架是HeliosBase和Cyrus2DBase。这些框架使用了它们的主要语言C++。与Python相比,C++在许多实例中使用,因为它更先进和更广泛。研究人员还在致力于构建一个完全基于Python的更好的框架。这个框架可以多样化,并可以被不同技术经验和技能水平的用户使用。基础代码中广泛使用了Tensorflow、Keras和PyTorch等框架。像Pyrus这样的框架可以轻松地实现基于C++的代码。Pyrus相比其他框架的主要优势在于它简单易用,因此即使是初学者也可以测试他们的Robocup联赛模型。主要问题是Robocup的环境有点嘈杂。为解决这个问题,研究人员实施了强化学习和机器学习模型,例如运球或传球。这减少了噪声,因为它们具有噪声消除能力。 Robocup已经让所有的数据爱好者更大程度地解决了所有数据分析问题。研究人员还引入了Pyrus来解决与Robocup相关的基本机器学习挑战。研究人员仍在改进Pyrus基础代码的性能。研究人员还计划实施一个Python监视器和日志分析软件,以更大程度地提高模型的可行性。
Leave a Comment在伦敦南部的一个曾经的饼干工厂,如今已经转变成了一个创新的前沿中心。在这里,机器人技术、人工智能和DNA测序相互碰撞,创造出一种具有变革性的医学抗体工程解决方案。在詹姆斯·菲尔德的领导下,LabGenius正在利用人工智能的力量重新定义抗体设计的规则,展示了人工智能推动医学突破的未来。 还可阅读:人工智能与基因:罕见DNA序列的发现 释放抗体的力量 抗体是人体对抗疾病的防线,是自然界在抵御感染方面的哨兵。这些蛋白质链起着守护者的作用,锁定外来入侵者并协调机体消除它们。虽然自20世纪80年代以来制药公司一直在设计合成抗体以治疗癌症和减少器官移植后的排斥反应,但设计抗体的手动过程仍然非常缓慢。 还可阅读:人工智能发现抗击致命细菌的抗生素 人类的挑战:在无尽的可能性中航行 人类蛋白质设计师面临着一个巨大的任务,即从数百万个潜在的氨基酸组合中筛选出每个抗体的完美序列。这个复杂的过程需要精心的实验,通过微调来增强某些属性,同时希望它们不会损害其他属性。LabGenius的创始人兼首席执行官詹姆斯·菲尔德优雅地描述了这个任务:“在这个无限的潜在分子空间中,有一个你想要找到的分子。” 还可阅读:解码生命蓝图:人工智能的基因变革者 愿景成形:LabGenius的诞生 菲尔德的旅程始于2012年,当时他在伦敦帝国理工学院攻读合成生物学的博士学位。随着DNA测序、计算和机器人技术成本的大幅下降,他意识到抗体工程可能发生根本性的变革。LabGenius就是源于这一愿景,将人工智能、机器人技术和DNA测序的融合为自动化抗体发现铺平道路。 革命性的设计过程:人工智能的指导之手 LabGenius利用机器学习算法来引领抗体设计过程。该模型首先识别用于对抗特定疾病的潜在抗体。利用健康和患病细胞的示例,算法深入抗体设计空间,从100,000种可能性中呈现出700多个初始选项。 还可阅读:人工智能承诺开发出反应速度提高128倍的mRNA疫苗 LabGenius的自动化流程:从设计到测试 神奇的过程发生在LabGenius的伯蒙德西实验室,自动化机器人系统和人工智能成为中心。在实验室中,抗体的设计、构建和培养几乎没有人为干预。一系列高端设备引导样本进行测试,使抗体能够生长并接受严格的生物学检测。人工监督确保顺利过渡到下一个阶段。 还可阅读:AI医学诊断是如何工作的? 人工智能的反馈循环:每次迭代都在优化 至关重要的是,人工智能模型会在每轮实验中学习和适应。实验结果会为算法提供信息,增强其对抗体设计复杂细节的理解。随着迭代的进行,模型在充分利用有希望的设计和探索新颖可能性之间取得了微妙的平衡,加速了通向突破性解决方案的旅程。 还可阅读:从试错到精确:AI对高血压治疗的答案 LabGenius的方法:打破传统的束缚 LabGenius的方法与传统的蛋白质工程方法不同。模型不再细化单一设计的微小变化,而是大胆地跨越未知领域。它揭示了人类直觉可能忽视的解决方案,快速而准确地产生结果。 患者的更好结果:最终目标 菲尔德的使命非常明确:为患者提供更强效且副作用更少的抗体治疗。LabGenius的人工智能驱动方法揭示了传统方法可能从未揭示的分子。通过拥抱违反直觉的设计并充分利用人工智能的能力,LabGenius设想了一个让患者受益于人工智能引导下创新医学解决方案的世界。 阅读更多:亚马逊 vs…
Leave a Comment普渡大学的研究人员在机器人技术、机器视觉和感知领域取得了重大突破他们的开创性方法明显优于传统技术,承诺未来机器可以比以往更有效、更安全地感知周围环境介绍HADAR:机器感知的革命性飞跃,由Zubin […]
Leave a Comment大型语言模型可以实现流畅的文本生成、新颖的问题解决和创造性的散文和代码生成。相比之下,视觉-语言模型可以实现开放词汇的视觉识别,甚至可以对图像中的物体-代理交互进行复杂推理。机器人学习新技能的最佳方式需要进一步明确。与在网络上训练最先进的语言和视觉-语言模型所使用的数十亿个标记和照片相比,从机器人收集的数据量可能无法相提并论。然而,要立即将这些模型适应到机器人活动中也具有挑战性,因为这些模型推理语义、标签和文本提示。相比之下,机器人必须接受低级别的指导,例如使用笛卡尔末端执行器。 Google Deepmind的研究旨在通过直接将基于互联网规模数据训练的视觉-语言模型直接融入端到端的机器人控制中,改善泛化能力并实现新兴语义推理。借助基于网络的语言和视觉-语言数据,我们旨在创建一个综合训练的模型,用于将机器人观察连接到动作。他们提出使用来自机器人轨迹和在互联网上进行的大规模视觉问答练习的数据,一起对最先进的视觉-语言模型进行微调。与其他方法相比,他们提出了一种简单通用的方法:将机器人动作表达为文本标记,并直接将其纳入模型的训练集中,就像处理自然语言标记一样。研究人员研究了视觉-语言-动作模型(VLA),RT-2是其中一个模型的实例。通过严格的测试(6,000个评估试验),他们可以确定RT-2通过基于互联网的训练获得了各种新兴技能,并且该技术导致了有效的机器人策略。 Google DeepMind推出了RT-2,这是一个基于Transformer的模型,它是作为其机器人Transformer模型1的后续而训练的,该模型是使用从网络获取的文本和图像进行训练的,可以直接执行机器人操作。使用机器人动作来表示作为第二语言的信息,可以将其转换为文本标记,并与在线可用的大规模视觉-语言数据集一起进行教学。推断涉及将文本标记解码为机器人行为,然后通过反馈循环进行控制。这使得可以将视觉-语言模型的一部分泛化、语义理解和推理能力转移到学习机器人策略上。在项目网站https://robotics-transformer2.github.io/上,RT-2团队提供了其使用的实时演示。 该模型保留了在机器人数据中发现的物理技能的应用能力。同时,它还通过阅读从网络中获取的视觉和语言命令来学习在新环境中使用这些技能。即使在机器人数据中不包含诸如精确数字或图标之类的语义线索,该模型也可以重新利用其学到的拾取和放置技能。在机器人演示中没有提供这样的关系,但该模型可以正确选择物体并将其放置在正确的位置。此外,如果命令附带一系列思路提示,例如知道岩石是 improvises锤子的最佳选择或者知道能量饮料是疲劳时的最佳选择,模型还可以进行更复杂的语义推理。 Google DeepMind的主要贡献是RT-2,这是一系列通过将基于网络规模数据进行微调的巨型视觉-语言模型创建的模型,用于作为具有泛化能力和语义感知的机器人规则。实验使用了多达550亿个参数的模型,这些参数是从公开可用的数据中学习的,并用机器人运动命令进行了注释。通过6,000个机器人评估,他们证明RT-2在对象、场景和指令的泛化方面取得了显著进展,并展示了一系列新兴能力,这些能力是基于互联网规模的视觉-语言预训练的副产品。 主要特点 RT-2的推理、符号解释和人类识别能力可在广泛的实际场景中使用。 RT-2的结果表明,使用机器人数据预训练VLMs可以使它们成为直接控制机器人的强大视觉-语言-动作(VLA)模型。 一个有希望的方向是构建一个能够思考、解决问题并理解信息以完成实际世界中各种活动的通用物理机器人,就像RT-2一样。 RT-2展示了它在处理各种任务方面的适应性和效率,它可以将语言和视觉训练数据转化为机器人动作。 限制 尽管RT-2具有令人鼓舞的泛化特性,但它也存在一些缺点。研究表明,通过VLMs(视觉语言模型)引入Web规模的预训练可以提高对语义和视觉概念的泛化能力,但这并不意味着机器人在执行动作方面具备了新的能力。尽管模型只能以新颖的方式利用机器人数据中存在的物理能力,但它确实学会了更好地利用自己的能力。研究人员认为,这是因为样本在能力维度上需要更多的多样性。新的数据收集范例,比如人类的电影,为未来研究获取新技能提供了有趣的机会。 总之,Google DeepMind的研究人员证明了大型VLA模型可以实时运行,但这需要相当大的计算开销。随着这些方法被应用于需要高频控制的情况,实时推理风险成为一个重要瓶颈。量化和蒸馏方法可以让这些模型更快地运行或在更便宜的硬件上运行,这是未来研究的有吸引力的领域。这与另一个现有限制相关,即相对较少的VLM模型可以用于开发RT-2。 来自Google DeepMind的研究人员总结了通过将预训练与视觉语言模型(VLMs)和机器人数据进行整合来训练视觉-语言-动作(VLA)模型的过程。然后他们引入了两个VLA的变种(RT-2-PaLM-E和RT-2-PaLI-X),分别受到PaLM-E和PaLI-X的启发。这些模型通过机器人轨迹的数据进行微调,以生成机器人动作,并将其分词为文本。更重要的是,他们证明了这种技术改进了泛化性能和从Web规模的视觉语言预训练中继承的新兴能力,从而导致非常有效的机器人策略。根据Google DeepMind的说法,机器人学习领域现在通过这种简单而通用的方法论得到了从其他领域改进的战略定位。
Leave a Comment在机器人技术方面的一次重大飞跃中,加州大学圣迭戈分校(UCSD)的一支工程团队与BASF公司的研究人员合作,开发出一种无需电子设备的3D打印机器人夹爪这种创新设备可以抓取、握持和释放物体,是对……的证明
Leave a Comment在一项具有突破性的研究中,加利福尼亚大学圣地亚哥分校(UCSD)的工程师团队设计出一只机器手,可以仅通过触觉旋转物体,而无需视觉输入这种创新的方法灵感来自于人类不一定需要看到物体就能轻松处理它们的方式一种触感敏感的方法[…]
Leave a Comment在智能家居的未来时代,购买一个机器人来简化家庭任务将不再是罕见的然而,当这些自动化助手无法执行简单的任务时,可能会感到沮丧安迪·彭(Andi Peng)是麻省理工学院电气工程与计算机科学系的一名学者,她和她的团队正在开辟一条道路…
Leave a Comment在控制和增强学习领域中,测量过程非常具有挑战性。一个特别不足的领域是关注高维控制的鲁棒基准,特别是高维机器人技术的“挑战问题”:掌握双手多指控制。与此同时,控制和增强学习方面的一些基准努力已经开始聚合和探索不同的深度方面。尽管对模仿人手的灵巧性进行了数十年的研究,但机器人中的高维控制仍然是一个主要难题。 加州大学伯克利分校、谷歌、DeepMind、斯坦福大学和西蒙弗雷泽大学的一组研究人员提出了一个名为ROBOPIANIST的高维控制基准套件。在他们的工作中,双手模拟的人形机器人手被要求根据音乐谱面演奏各种歌曲,这些歌曲以音乐器件数字接口(MIDI)转录为条件。机器人手总共有44个执行器,每只手有22个执行器,类似于人手的轻度欠驱动。 演奏一首好歌需要能够以展示高维控制策略的许多特质的方式对动作进行排序。这些特质包括: 空间和时间的精确性。 两只手和十个手指的协调。 关键按键的战略计划,以使其他按键更容易。 原始ROBOPIANIST-repertoire-150基准包括150首歌曲,每首歌曲都是独立的虚拟作品。研究人员通过模型自由(RL)和模型基于(MPC)方法的全面实验来研究无模型和模型方法的性能范围。结果表明,尽管还有很大的改进空间,但提出的策略可以产生出色的表现。 策略学习一首歌曲的能力可以用来按难度对歌曲(即任务)进行排序。研究人员认为,根据这种标准对任务进行分组的能力可以鼓励在与机器人学习相关的各个领域进一步研究,例如课程和迁移学习。RoboPianist为各种学习方法提供了有趣的机会,例如模仿学习、多任务学习、零样本泛化和多模态(声音、视觉和触觉)学习。总的来说,ROBOPIANIST提供了一个简单的目标,一个易于复制的环境,清晰的评估标准,并且在未来有各种扩展潜力。
Leave a CommentPIGINet利用机器学习来简化和增强家庭机器人的任务和运动规划,通过评估和筛选复杂环境中的可行解决方案
Leave a Comment麻省理工学院LIDS的Luca Carlone和Jonathan How讨论未来机器人如何感知和与环境互动
Leave a Comment想象一下一个复杂的互联自主机器人网络它们像一个精密的水下芭蕾舞团一样协同工作,穿越黑暗深海,在进行详细的科学调查和高风险的搜救任务这个未来主义的愿景正在逐渐接近现实,得益于布朗大学的研究人员,他们正在引领新一代机器人网络的发展
Leave a Comment机器人正在仓库中搬运货物、包装食品、帮助组装车辆——当它们不翻转汉堡或者冲泡拿铁时。 它们是如何如此迅速地变得如此熟练呢?机器人模拟。 它正在以飞跃的进步改变我们周围的各个行业。 机器人模拟简介 机器人模拟器将虚拟机器人放置在虚拟环境中,以测试机器人的软件,而无需实际机器人。而最新的模拟器可以生成数据集,用于训练将在实际机器人上运行的机器学习模型。 在这个虚拟世界中,开发者创建机器人、环境和其他机器人可能遇到的素材的数字版本。这些环境可以遵守物理定律,并模拟真实世界的重力、摩擦、材料和光照条件。 谁在使用机器人模拟? 如今,机器人在大规模上提升了业务。一些最大和最具创新性的机器人公司都依赖于机器人模拟。 得益于模拟,配送中心每天可以处理数千万个包裹。 亚马逊机器人使用它来支持其配送中心。宝马集团借助它加速其汽车装配厂的规划。软性机器人应用它来完善食品包装的抓取和放置。 全球各地的汽车制造商都在用机器人来支持他们的业务。 “汽车公司雇佣了将近1400万人。数字化将提高这个行业的效率、生产力和速度,” NVIDIA首席执行官Jensen Huang在最新的GTC主题演讲中说道。 机器人模拟的工作原理简介 一个先进的机器人模拟器首先应用物理基本方程。例如,它可以使用牛顿运动定律来确定物体在一个小时间增量或时间步长内的运动方式。它还可以结合机器人的物理约束条件,比如由铰链般的连接构成,或者无法穿过其他物体。 模拟器使用各种方法来检测物体之间的潜在碰撞,识别碰撞物体之间的接触点,并计算阻止物体相互穿过的力或冲量。模拟器还可以计算用户寻求的传感器信号,比如机器人关节处的扭矩或机器人夹持器与物体之间的力。 然后,模拟器将根据用户的要求重复这个过程。一些模拟器,比如基于NVIDIA Omniverse的NVIDIA Isaac Sim应用程序,还可以在每个时间步长上提供物理上准确的模拟器输出的可视化。 使用机器人模拟器的成果 机器人模拟器用户通常会导入机器人的计算机辅助设计模型,并导入或生成感兴趣的对象来构建虚拟场景。开发者可以使用一组算法来执行任务规划和运动规划,然后指定控制信号来执行这些计划。这使得机器人能够执行任务并以特定方式移动,比如拾取一个物体并将其放置在目标位置。 开发者可以观察计划和控制信号的结果,然后根据需要进行修改以确保成功。最近,有一种向基于机器学习的方法的转变。所以,用户不是直接指定控制信号,而是指定所需的行为,比如移动到一个位置而不发生碰撞。在这种情况下,一个数据驱动的算法会根据机器人的模拟传感器信号生成控制信号。 这些算法可以包括模仿学习,其中人类演示可以提供参考,以及强化学习,机器人通过智能的试错学习来实现行为,通过加速的虚拟体验快速学习多年的经验。…
Leave a CommentDeepMind,著名的AI研究实验室,推出了名为RoboCat的AI模型,能够使用各种机械臂模型执行各种复杂任务。与之前的模型不同,RoboCat以其能够解决多个任务并无缝适应不同实际机器人的能力而脱颖而出。让我们深入探讨这一非凡成就并探索RoboCat如何改变机器人领域。 还阅读:亚马逊的秘密家用AI机器人可以做任何事情甚至更多 多才多艺的RoboCat:机器人智能的跨越 DeepMind的突破性AI模型RoboCat在机器人领域展示了前所未有的多样性。正如DeepMind的研究科学家Alex Lee所说,RoboCat是一个单一的大型模型,能够处理多个真实机器人实体的多样任务。这意味着该模型能够快速适应新任务和不同的机器人配置。这标志着机器人领域的重要里程碑。 还阅读:机械臂加持的人类蜘蛛侠——Jizai Arms 从文本到机器人:Gato的启示 RoboCat受到GATO的启发,后者是DeepMind开发的另一个AI模型。GATO具有分析和响应文本、图像和事件的非凡能力。通过利用这一概念,DeepMind的研究人员对大量数据集进行了RoboCat的培训。这包括从模拟和现实机器人环境中收集的图像和动作数据。 训练强大的RoboCat 为了训练RoboCat,DeepMind团队收集了100-1,000个人控制机械臂执行各种任务的演示。这些演示为在特定任务上对模型进行微调、创建专门的“分支”模型奠定了基础。每个分支模型都经过了严格的实践,平均进行了10,000次迭代。 还阅读:世界首台AI动力机械臂:你需要了解的一切 突破极限:释放RoboCat的潜力 RoboCat的最终版本在模拟和真实世界情况下,已经接受了令人印象深刻的253项任务的训练,并对这些任务的141个变体进行了基准测试。DeepMind报告称,该模型成功地学会了观察1,000个人控制演示后如何操作不同的机械臂,持续数小时。然而,不同任务的成功率差别很大,从13%到99%不等,演示数量是一个决定性因素。 还阅读:Alphabet推出Flowstate:面向所有人的机器人应用开发平台 开启新局面:重新定义机器人技术 尽管成功率各不相同,DeepMind认为RoboCat有潜力降低解决机器人新任务的障碍。Alex Lee解释说,即使对于新任务的演示数量有限,RoboCat也可以进行微调并生成额外的数据以进一步提高其性能。最终目标是将教RoboCat学习新任务所需的演示数量减少到不到10个,这可能会彻底改变机器人领域。 也阅读:Sanctuary AI的Phoenix机器人和特斯拉的最新推出:Optimus! 我们的看法 DeepMind的RoboCat在机器人领域取得了重大突破。它展示了单一AI模型在多个任务和不同机器人实体上适应和表现的能力。通过利用其对大量数据集的培训并利用微调的力量,RoboCat为未来的发展奠定了基础。RoboCat有可能简化教授机器人新任务的过程,这可能会开创一个新的创新时代。随着RoboCat为未来铺平道路,令人兴奋的时代即将到来,机器人可以在最小的人为干预下无缝适应和学习。
Leave a Comment在疫情以来的首次现场主题演讲中,NVIDIA的创始人兼CEO黄仁勋今天在台北举行的COMPUTEX大会上宣布了一些平台,这些平台可以帮助公司乘风破浪,参与到一波历史性的生成式人工智能浪潮中,这个浪潮正在改变从广告到制造业再到电信等行业。 “我们回来了,”黄仁勋在他的家中厨房进行了几年的虚拟主题演讲之后在舞台上大声喊道。“我已经有将近四年没有公开演讲了–祝我好运!” 他向约3500名观众演讲了近两个小时,介绍了加速计算服务、软件和系统,这些都使新的商业模式成为可能,也让现有的商业模式更加高效。 “加速计算和人工智能标志着计算机的重新发明,”黄仁勋说道,他在过去一周在家乡的旅行每天都被当地媒体追踪报道。 为了展示它的强大,他使用了他所在的巨大的8K墙,展示了一个文本提示,生成了一首主题歌,可以随意地唱,就像任何卡拉OK歌曲一样。黄仁勋偶尔用他的家乡语言和观众开玩笑,并短暂地带领观众唱了这首新歌。 “现在我们处于一个新的计算时代的临界点,加速计算和人工智能已经被全球几乎所有的计算和云计算公司所接受,”他说道,指出现在有40,000家大型公司和15,000家初创公司使用NVIDIA技术,去年CUDA软件下载量达到2500万次。 主题演讲的重要新闻公告 Grace Hopper提供大内存超级计算机,用于生成式人工智能。 模块化参考架构可以创建100多个加速服务器变体。 WPP和NVIDIA在Omniverse中创建数字广告内容引擎。 SoftBank和NVIDIA在日本建立5G和生成式人工智能数据中心。 网络技术加速基于以太网的人工智能云。 NVIDIA ACE for Games利用生成式人工智能为角色赋予生命。 全球的电子制造商都在使用NVIDIA人工智能。 企业人工智能的新引擎 对于需要最佳人工智能性能的企业,他推出了DGX GH200,一个大内存人工智能超级计算机。它使用NVIDIA NVLink将多达256个NVIDIA GH200 Grace Hopper超级芯片组合成一个单一的数据中心大小的GPU。…
Leave a Comment“DribbleBot” 可以利用强化学习在沙、砾石、泥土和雪等不同地形上操纵足球,以适应不同的球的动态
Leave a Comment麻省理工学院的研究人员展示了自主无人机导航的新进展,使用基于大脑液态神经网络的技术,在超出分布范围的情况下表现出色
Leave a Comment