Press "Enter" to skip to content

71 search results for "无监督学习"

来自麻省理工学院和FAIR Meta的研究人员发布了RCG(Representation-Conditioned Image Generation):一种在无条件图像生成中开创性的人工智能框架

如何在不依赖人工标注的情况下生成高质量图像? MIT CSAIL和FAIR Meta的这篇论文解决了不依赖人工标注生成高质量图像的挑战。他们提出了一个名为Representation-Conditioned Image Generation(RCG)的新型框架,该框架利用从图像分布经过预训练编码器获得的自监督表示分布。这个框架在无条件生成图像方面取得了优秀的结果,并且在有条件生成图像方面与领先方法一直保持竞争力。 历史上,监督学习主导了计算机视觉,但是像对比学习这样的自监督学习方法缩小了差距。尽管先前的图像生成工作在使用人工标注进行有条件生成方面表现出色,但无条件生成面临挑战。引入的框架RCG通过在没有人工标注的情况下在类有条件和类无条件图像生成方面取得了卓越的成果。 RCG取得了最先进的结果,标志着自监督图像生成的重大进展。 使用自监督教育的Representation Diffusion Model(RDM)可以帮助弥合图像生成中监督学习和无监督学习之间的差距。RCG将RDM与像素生成器集成,从而实现了潜在优势的类无条件图像生成。 RCG框架将图像生成条件化为通过预训练编码器从图像分布获得的自监督表示分布。利用像素生成器对像素进行条件化,RCG通过通过去噪扩散隐式模型进行的表示空间采样来集成RDM的训练。 RCG集成了无需分类器的指导,以改善生成模型的性能,如MAGE所示。像Moco v3这样的预训练图像编码器将表达式规范化为输入到RDM中。 RCG框架在类无条件图像生成方面表现出色,实现了最先进的结果,并在类有条件图像生成方面与领先方法相媲美。在ImageNet 256×256数据集上,RCG达到了3.31的Frechet Inception Distance和253.4的Inception Score,表明生成了高质量的图像。通过对表示进行条件化,RCG显著改善了像ADM,LDM和MAGE等不同像素生成器的类无条件生成,并进一步改善了性能的训练周期。 RCG的自我条件化图像生成方法在各种现代生成模型中具有通用性,始终改善类无条件生成。 RCG框架借助自监督表示分布在类无条件图像生成方面取得了突破性成果。其与多样的生成模型的无缝集成显著改善了它们的类无条件性能,而其不依赖于人工标注的自我条件化方法有望超越有条件方法。RCG的轻量级设计和任务特定的训练适应性使其能够利用大型无标签数据集。 RCG已经被证明是一种非常有效和有前途的高质量图像合成方法。

Leave a Comment

为何GPU在人工智能领域表现出色

GPU被称为人工智能的稀土金属,甚至是黄金,因为它们是当今生成式人工智能时代的基石。 三个技术原因以及许多故事解释了为什么会这样。每个原因都有多个值得探索的方面,但总体上有: GPU采用并行处理。 GPU系统可扩展到超级计算高度。 用于人工智能的GPU软件堆栈既广泛又深入。 总的结果是,GPU比CPU以更高的能效计算技术,并且更快地执行计算。这意味着它们在人工智能训练和推理方面提供领先的性能,并且在使用加速计算的各种应用中都能获得收益。 在斯坦福大学的人工智能人本中心发布的最新报告中提供了一些背景信息。报告中指出,GPU性能“自2003年以来增加了约7000倍”,每单位性能的价格“增加了5600倍”。 2023年的报告展示了GPU性能和价格/性能的急剧上升。 报告还引用了独立研究团体Epoch的分析和预测人工智能进展的数据。 Epoch在其网站上表示:“GPU是加速机器学习工作负载的主要计算平台,在过去五年中,几乎所有最大的模型都是在GPU上训练的… 从而对AI的最新进展做出了重要贡献。” 一份为美国政府评估人工智能技术的2020年研究得出了类似的结论。 “当计算生产和运营成本计算在内时,我们预计[前沿]人工智能芯片的成本效益比领先节点的CPU高出一个到三个量级,”研究报告中说。 在Hot Chips,一年一度的半导体和系统工程师聚会上,NVIDIA公司的首席科学家比尔·达利在一个主题演讲中表示,NVIDIA GPU在过去十年中在AI推理方面的性能提升了1000倍。 ChatGPT传播新闻 ChatGPT为GPU在人工智能方面的优势提供了一个强有力的例子。这个大型语言模型(LLM)是在数千个NVIDIA GPU上训练和运行的,用于服务超过1亿人使用的生成式AI。 自2018年推出以来,作为人工智能的行业标准基准,MLPerf详细记录了NVIDIA GPU在人工智能训练和推理中的领先性能。 例如,NVIDIA Grace Hopper超级芯片在最新一轮推理测试中表现优异。自那次测试以来,推出的推理软件NVIDIA TensorRT-LLM性能提升了8倍以上,能源使用和总拥有成本降低了5倍以上。事实上,自2019年基准测试发布以来,NVIDIA…

Leave a Comment

为B2B公司实现基于AI的客户细分:一份路线图

总部位于北卡罗来纳州的英格索尔兰德是世界领先的综合企业之一该公司拥有多个业务部门,包括压缩空气系统、暖通空调解决方案和面向科学实验室和货运运输公司等多个行业的尖端技术产品它还在175多个国家有业务,主要在…运作

Leave a Comment

如何在线学习机器学习?

介绍 机器学习是当前高度发展的技术领域。这项技术使得计算机系统能够在没有技术编程的情况下学习和做出决策。它具有各种应用,包括识别模式、数据分析和随着时间的推移改善性能。本指南将介绍如何在线学习机器学习,为您介绍可用的最佳机器学习课程,并帮助您选择合适的课程。 什么是机器学习? 机器学习是人工智能领域利用数据和算法解决问题和做出决策的方式,随着时间的推移提高其效率。机器学习的类型包括: 监督学习:这种类型的机器学习依赖于数据,并提供算法来帮助系统学习。用户提供给机器的结果最终是标记的数据集,其余数据作为输入特征。例如,您想了解软件失败的统计数据和原因。在这种情况下,您将向机器提供10个未能成功的软件的数据和解释,并提供10个成功的软件和原因的数据。标记数据监督系统理解您可能正在寻找的数据。 无监督学习:无监督学习不依赖于标记的数据集和数据。这种类型的机器学习帮助创建预测模型。无监督学习中最常用的模型包括: 隐马尔可夫模型 聚类 层次聚类 高斯混合模型 强化学习:强化学习类似于人类的知识。该模型与环境进行交互,并依赖于获得正反馈。它使用一种试错的方法。 为什么要在线学习机器学习? 通过最佳的机器学习课程在线学习机器学习,可以获得灵活的学习机会。在线学习专业技能带来众多好处,例如: 可访问性:任何时候、任何地点都可以访问课程提供的大量信息和丰富的数据。 灵活性:学习者可以调整学习时间和学习进度。最佳的机器学习课程不会限制用户必须在特定时间范围内学习。 成本效益:在线学习机器学习课程相对于线下课程来说,包括基础设施、维护和服务等相关成本是相对较低的。 与行业相关的内容:在线学习提供与行业相关的内容,强调提供与行业趋势相关的培训。这种类型的学习使学习者与技术领域的趋势相结合。 个性化关注:最佳的在线机器学习课程提供个性化辅导和关注,提高学习者的技能发展质量。 机器学习课程大纲是什么样的? 在线机器学习课程提供精良的课程,总结了整个学科的范围。一般的课程大纲包括: 机器学习简介 监督学习和线性回归 分类和逻辑回归 决策树和随机森林 朴素贝叶斯和支持向量机…

Leave a Comment

以数据为导向:与Srikanth Velamakanni一起打造数据驱动型组织

Analytics Vidhya的“以数据为先导”是一系列采访,行业领导者们在其中分享他们的经验、职业旅程、有趣的项目等等。在系列的第五集中,我们有一个非常特别的嘉宾加入了我们——Srikanth Valamakanni先生。他是Fractal Analytics的集团首席执行官、联合创始人和副主席,Fractal Analytics是印度最大的人工智能公司之一。在这次采访中,他与我们分享了关于构建数据驱动组织的见解和观察。作为该国数据分析领域的先驱之一,他还谈到了AI在多年间的变化趋势。此外,他对数据分析、数据科学和教育的深深热情也在与Analytics Vidhya的创始人兼首席执行官Kunal Jain的对话中得到了突显。以下是该次采访的摘录。 您可以在此处观看完整的采访。 AI的演进 Kunal J:我想从您的早期开始谈起。您于23年前创办了Fractal,在那个时候,分析几乎是闻所未闻的。所以,您见证了这个行业从一个非常小众到现在的发展。对您来说,这个旅程是怎样的? Srikanth V:我们的旅程非常有趣,因为它反映了AI的进步之旅。众所周知,AI这个词是在1956年的一个夏季会议上提出的。2006年,我看了会议上的录音和笔记,这次会议距离Dartmouth会议已经过去了50年。1956年的一些与会者,如Marvin Minsky等人,也参加了2006年的会议,讨论了在这50年里AI世界的进展。他们试图了解在接下来的多年里会发生什么。 我看到了那次讨论的记录,感到非常着迷,因为即使在2006年,人们实际上还在讨论AI会走上首先逻辑、创建规则、例外等的道路,还是会走向深度学习,或者当时所称的神经网络。 早些时候,当我在学习电气工程时,我学校的计算机科学系正在学习AI。他们有一门关于AI的课程,而我们有一门关于神经网络的课程——它们是两回事。AI意味着规则,比如模糊逻辑创建规则,而我们使用非常基础的神经网络进行指纹识别、签名验证等。那是在90年代。 所以,即使在2006年,定义和区别并不是很清晰。仅仅4年后,突然间,神经网络和深度学习成为了世界各地的核心主题。我们开始看到IBM、微软、谷歌等实验室取得的令人印象深刻的成果。然后在2011-12年,非常有趣的事情发生了——谷歌意识到这项技术将以非常重要的方式改变世界。所以他们聘请了Jeffrey Hinton,众所周知,他将AI应用于谷歌的每个产品。 所以,我多年来在AI进化方面所见到的是,有过谷歌的旧日子。然后到了2010年,那些最大的AI本土或数字本土公司开始意识到AI的潜力。到了2015年,世界各地的财富100和财富500公司开始意识到这一点。大约在2014-15年,我开始看到许多董事会要求他们的首席执行官来展示他们的数据策略或AI策略。然而,在印度这仍然不是一件很大的事。 但在2020年,AI在全球范围内变得非常重要。尤其是COVID之后,它开始蓬勃发展,现在在2023年,有了ChatGPT之后,它已经成为我们无法停止讨论的一个话题。 Fractal的AI之旅 Srikanth V:如果您看一下Fractal的旅程,前10年全部都是关于使用分析解决问题。所以,我们知道一个非常明确的决策问题。我们通过数据观察正在发生的事情,预测可能会发生的事情,并帮助公司做出更好的决策。在很大程度上,这是通过逻辑回归、决策树、随机森林、XGBoost等技术来完成的。直到2010年,我们大部分时间都在处理结构化数据。</p 到2011-12年,我们创建了一个叫做Fractal Sciences的公司,来探索这个领域里最令人印象深刻的新问题并投资于它们。从此,我们推出了很多产品,并最终聘请了Prashant…

Leave a Comment

Can't find what you're looking for? Try refining your search: