Press "Enter" to skip to content

四海吧 Posts

欲知答案:通过编码大型语言模型实现人类级奖励设计

随着近年来大型语言模型的进展,大型语言模型框架在顺序高级决策任务的语义规划中表现突出,这并不令人意外然而,开发人员仍然发现难以充分利用大型语言模型框架来学习复杂的低级操作任务尽管它们高效,但现今的大型语言模型需要相当的[…]

Leave a Comment

文本到图像革命:Segmind的SD-1B模型成为最快的游戏中的模型

介绍 Segmind AI 自豪地发布了 SSD-1B(Segmind Stable Diffusion 1B),这是一种具有颠覆性的开源文本到图像生成模型革命。这个闪电般快速的模型具有前所未有的速度、紧凑设计和高质量的视觉输出。人工智能在自然语言处理和计算机视觉方面取得了快速进展,并展示出重新定义界限的创新。由于其关键特征,SSD 1B 模型是计算机视觉的开拓之门。在这篇全面的文章中,我们深入探讨了该模型的特点、用例、架构、训练信息等等。 学习目标 探索 SSD-1B 的架构概述,了解它如何从专家模型中进行知识蒸馏。 通过在 Segmind 平台上使用 SSD-1B 模型进行快速推理和使用代码推理,获得实践经验。 了解下游用例,了解 SSD-1B 模型如何用于特定任务。 认识 SSD-1B 的局限性,特别是在实现绝对照片逼真度和在某些场景中保持文本清晰度方面。…

Leave a Comment

谷歌 DeepMind 和 YouTube 研究人员宣布了 Lyria:一种先进的 AI 音乐生成模型

在最近的一项公告中,Google的DeepMind与YouTube合作,推出了一款名为Lyria的音乐生成模型,该模型将改变艺术表达的景观。这项创新技术配备了两个实验性工具集,Dream Track和Music AI,标志着人工智能辅助音乐创作迈出了重要的一步,承诺重新定义音乐家和创作者与他们的创作互动。 Lyria的发布紧随Google先前在基于人工智能的音乐创作方面的尝试,其通过单词提示生成曲调的方式进入这一领域。现在,重点转向了DeepMind的Lyria模型,旨在与YouTube合作,使创作者能够发挥其潜力。Dream Track是一种开创性的工具,赋予创作者们创造以人工智能生成的音乐为基础的YouTube Shorts背景音乐的能力,使他们能够沉浸在备受赞誉的艺术家独特的音乐风格中。 然而,在人工智能在音乐创作中的角色引发的兴奋中,出现了关于人工智能生成作品的真实性和可持续性的担忧。在音频片段之间保持音乐连贯性的复杂性对人工智能模型构成了挑战。DeepMind承认了这种复杂性,并强调在延长的时间内保持预期音乐效果的困难,从而导致时间上的超现实失真。 DeepMind和YouTube最初集中在更短的音乐作品上以缓解这些挑战。Dream Track的首个发布面向一小群创作者,为其提供了机会以反映所选择艺术家的音乐本质来创作精心策划的30秒人工智能生成背景音乐。值得注意的是,艺术家们积极参与测试这些模型,以确保其真实性并提供宝贵的见解。 团队强调了这些努力的合作性质。他们强调了一个名为Music AI孵化器的集体,其中包括艺术家、词曲作者和制作人积极为改进人工智能工具做出贡献。他们的参与意味着探索人工智能的边界并提升创作过程的动力。 虽然Dream Track的发布范围有限,但Music AI工具的更广泛应用将在今年晚些时候推出。DeepMind令人兴奋地暗示了这些工具的功能,其中包括基于指定乐器或哼唱来创作音乐,从简单的MIDI键盘输入组合创作乐团,以及创作与现有人声线伴奏的器乐曲目。 Google进军人工智能生成音乐的探索并非孤立的。Meta的开源AI音乐生成器以及Stability AI和Riffusion等初创公司的其他创举,突显了音乐行业加速向 embrace AI 驱动的创新迈进的趋势。在这些进展下,这个行业正处于转型之中。 随着人工智能与创造力交叉,令人关注的问题是:人工智能创作是否将成为音乐的新常态?尽管存在不确定性,DeepMind和YouTube之间的合作表明了一种共同努力,旨在确保人工智能生成的音乐在保持可信度的同时与人类创造力相辅相成。 在技术和艺术交汇的领域,DeepMind和YouTube在人工智能音乐生成方面的努力预示着一个充满希望的未来,一个创新和艺术表达协调一致地重新定义音乐创作本质的未来。 本文来自谷歌DeepMind和YouTube研究人员宣布Lyria:先进的人工智能音乐生成模型,首发于MarkTechPost。

Leave a Comment

使用AutoGen轻松进行战略AI团队建设

介绍 在一个数字前沿无边界的世界中,AutoGen以一种变革性范式的建筑师的身份出现。想象一下拥有个性化的人工智能团队,每个团队都擅长不同领域,无缝协作,无障碍沟通,不知疲倦地处理复杂任务。这就是AutoGen的本质,它是一种开创性的多智能体对话框架,赋予您创建个性化的人工智能团队的能力。在这篇文章中,我们揭开AutoGen的神奇之处,探索它如何使您能够组建自己的数字梦想团队并实现非凡成就。欢迎来到一个人与机器之间的边界消失,协作无限的未来。 学习目标 在我们深入了解细节之前,让我们概述一下本文的主要学习目标: 全面了解AutoGen作为多智能体对话框架的能力。 了解智能体在多智能体对话框架中的自主沟通和协作。 了解config_list在AutoGen运行中的关键作用。了解保护API密钥和管理配置以实现智能体高效性能的最佳实践。 探索各种对话风格,从完全自主到人类参与的交互。了解AutoGen支持的静态和动态对话模式。 了解如何利用AutoGen根据验证数据、评估函数和优化指标调整LLM。 探索示例,如构建协作内容创作团队和带有文化背景的语言翻译,以了解AutoGen如何在不同场景中应用。 本文作为数据科学博文马拉松的一部分发表。 AutoGen是什么? AutoGen是一个统一的多智能体对话框架,作为使用基础模型的高级抽象。它将能力强大、可定制、可对话的智能体通过自动化聊天集合在一起,与LLMs、工具和人类参与者整合。本质上,它使智能体能够自主沟通和协作,有效地简化复杂任务并自动化工作流程。 为什么AutoGen很重要? AutoGen解决了与人工智能进行高效灵活的多智能体通信的需求。它的重要性在于它能够: 简化复杂LLM工作流程的编排、自动化和优化。 充分发挥LLM模型的性能,同时克服其局限性。 以最少的工作量基于多智能体对话开发下一代LLM应用。 设置开发环境 创建虚拟环境 创建虚拟环境是一种良好的实践,可以隔离特定项目的依赖项,避免与系统范围的软件包冲突。以下是设置Python环境的方法: 选项1:Venv python -m venv…

Leave a Comment

“深入挖掘 Rust 编写的矢量数据库 Qdrant”

介绍 Vector数据库已经成为存储和索引非结构化和结构化数据表示的首选位置。这些表示是由嵌入模型生成的向量嵌入。向量存储已成为开发带有深度学习模型的应用程序的重要组成部分,尤其是大型语言模型。在向量存储的不断发展中,Qdrant是最近推出的一个功能齐全的向量数据库。让我们深入了解一下。 学习目标 熟悉Qdrant的术语,以更好地理解它 深入研究Qdrant Cloud并创建Clusters 学习如何创建我们的文档的嵌入并将它们存储在Qdrant Collections中 探索在Qdrant中查询的工作原理 在Qdrant中调试过滤器,以检查其工作原理 本文作为Data Science Blogathon的一部分发表。 什么是嵌入? 嵌入是一种以数字形式表示数据的方式,即以n维空间中的数字或数值向量的形式表示不同类型的数据,如文本、照片、音频、视频等。嵌入使我们能够以这种方式对相关数据进行分组。使用特定模型可以将某些输入转换为向量。Google创建的一种广为人知的嵌入模型是将单词转化为向量(向量是具有n维的点),称之为Word2Vec。每个大型语言模型都有一个嵌入模型,用于生成LLM的嵌入。 嵌入的用途是什么? 将单词转换为向量的一个优点是可以进行比较。当拿到两个单词作为数字输入或向量嵌入时,计算机可以进行比较,尽管它无法直接比较它们。可以将具有可比较嵌入的单词分组在一起。因为它们彼此相关,诸如“王”、“皇后”、“王子”和“公主”这些术语将出现在一个聚类中。 从这个意义上讲,嵌入帮助我们找到与给定术语相关的单词。这可以用于句子,我们输入一个句子,提供的数据返回相关的句子。这为许多用例奠定了基础,包括聊天机器人、句子相似性、异常检测和语义搜索。我们开发的用于根据我们提供的PDF或文档回答问题的聊天机器人利用了这种嵌入概念。所有生成式大型语言模型都使用这种方法,以获得与他们提供的查询相关联的内容。 什么是向量数据库? 如前所述,嵌入是各种数据的表示,通常是非结构化数据以数字格式在n维空间中。那么我们该如何存储它们呢?传统的关系型数据库管理系统(RDMS)不能用于存储这些向量嵌入。这就是向量存储/向量数据库发挥作用的地方。向量数据库的设计目的是以高效的方式存储和检索向量嵌入。有许多不同的向量存储器,它们通过所支持的嵌入模型和用于获取相似向量的搜索算法的种类而有所不同。 什么是Qdrant? Qdrant是一种新型的向量相似性搜索引擎和向量数据库,采用Rust语言构建的可用于生产的服务。Qdrant具有用户友好的API,用于存储、搜索和管理具有元数据的高维点(点就是向量嵌入),这些元数据称为载荷。这些载荷成为有价值的信息,提高搜索精度,并为用户提供有见地的数据。如果您熟悉其他向量数据库,如Chroma,Payload类似于元数据,它包含有关向量的信息。 Qdrant是用Rust编写的,即使在负载很重的情况下也是快速可靠的向量存储。Qdrant与其他数据库的区别在于它提供的客户端API数量。目前,Qdrant支持Python、TypeScript/JavaScript、Rust和Go。它使用HSNW(层次可导航小世界图)进行向量索引,并提供了许多距离度量,如余弦、点和欧氏距离。它还提供了一个内置的推荐API。 了解Qdrant术语 要顺利开始使用Qdrant,熟悉Qdrant向量数据库中的术语/主要组件是一个好习惯。…

Leave a Comment

斯坦福大学研究员推出FlashFFTConv:一种新的人工智能系统,用于优化长序列的FFT卷积

Translate this html (keep the html code in the result) to Chinese: 高效地在延长序列中进行推理是机器学习中的主要难题。最近,卷积已经成为序列建模的关键原始,支持语言建模、时间序列分析、计算机视觉、DNA建模等领域的最新性能。尽管有这些令人印象深刻的质量发现和其他优势,如随着序列长度增加的改进稳定性和更好的可扩展性,卷积序列模型仍然比Transformer模型慢得多。 一个主要原因是硬件支持不稳定。与视觉应用中使用的短滤波器相比,序列建模中的卷积经常使用与输入序列长度一样长的滤波器。快速傅里叶变换(FFT)卷积算法通过映射输入和输出频率来计算输入u和卷积核k之间的卷积。 尽管渐近有效,但FFT卷积算法在现代加速器上的计时效果较低。然而,系统技术的进步使得Transformer模型能够达到当前加速器的极限,在使用FlashAttention-v2时,端到端FLOP使用率超过72%。 为了提供更长的上下文能力,斯坦福大学的一项新研究调查了如何在现代加速器上优化FFT卷积方法。研究人员认为,随着FlashAttention等系统的进步,导致了更好的模型和新的注意力算法,优化FFT卷积将会产生新的更好的算法,提升卷积序列模型的质量。 FFT卷积可以很容易地优化短序列。常见的做法是在多个批次中重复使用卷积核滤波器,这使得可以在重复使用之前预先计算滤波器的FFT。因此,FFT卷积在批次和滤波器之间是并行的,并且内核融合允许将中间卷积输出缓存在静态随机存取存储器(SRAM)或寄存器中。 然而,团队指出,随着序列长度的增加,出现了两个主要瓶颈。就当前加速器而言,FFT卷积不会充分利用专用矩阵-矩阵乘法单元。 其次,随着序列变得过长而无法适应SRAM,内核融合失败,需要进行昂贵的输入/输出操作。用于因果关系的填充操作以及从实值输入/输出转换为复值FFT中间结果可能进一步增加这些I/O成本。 为此,研究人员提出了一种名为FlashFFTConv的新算法,该算法采用了FFT的Monarch分解,以优化针对长序列的FFT卷积。通过p阶Monarch分解,FFT可以通过一系列p个矩阵-矩阵乘法操作有效地传输到硬件中。较大的p值由于较小的矩阵而导致更少的FLOP成本,但需要更多的I/O来传递中间结果。因此,涉及到权衡。 该研究演示了如何基于序列长度使用简单的成本模型来优化FLOP成本和I/O成本,在GPU上优化p。除了在更长的序列长度上促进内核融合之外,该分解还减少了必须在SRAM中维护的序列的数量。因此,FlashFFTConv可以轻松处理从256个字符到400万个字符的序列。通过使用实值FFT算法并在输入进行零填充时跳过部分矩阵-乘法操作,FlashFFTConv可以将FFT操作的长度减少多达一半。最后但并非最不重要的是,FFT卷积的矩阵视图为实施两个架构修改提供了简单的界面:偏差卷积和频率稀疏卷积。这两种方法可以简单地通过省略矩阵分解的部分来实现,从而降低内存占用和计时运行时间,并可以看作是Transformer中稀疏/近似注意力的卷积并行。 研究人员证明了FlashFFTConv加速了FFT卷积,从而实现了更好的质量、更高效和更长的序列模型。 通过更好的效率,FlashFFTConv提高了卷积序列模型的质量:在相同的计算预算下,FlashFFTConv使Hyena-GPT-s的困惑度提高了2.3个点,并使M2-BERT-base的平均GLUE分数提高了3.3个,性能提升相当于模型参数加倍。 与PyTorch相比,FlashFFTConv在卷积效率方面提高了高达7.93倍,并在内存节省方面提高了高达5.60倍,而且这种高效性在序列长度上可以达到四个数量级。对于长度为2K及以上的序列,FlashFFTConv在计时效果上快于FlashAttention-v2端到端,原因是FLOP成本更低,并且实现了高达62.3%的端到端FLOP使用率,仅比FlashAttention-v2少10%。 FlashFFTConv使更长序列的模型成为可能。FlashFFTConv生成的模型是唯一能够完成长阶竞技场基准的Path-512作业(序列长度为256K)的模型,用于高分辨率图片分类。FlashFFTConv是第一个以单核苷酸分辨率嵌入最长人类基因(长达230万个碱基对)的模型;通过部分卷积,它将HyenaDNA扩展到4M的序列长度。…

Leave a Comment

使用Amazon SageMaker Studio与Llama 2、LangChain和Pinecone来构建一个RAG问答解决方案,以便进行快速实验

检索增强生成(RAG)允许您为大型语言模型(LLM)提供对外部知识源(如资料库、数据库和API)的访问权限,而无需对模型进行精细调节在使用生成型人工智能进行问答时,RAG使得LLM能够以最相关、最新的信息来回答问题,并可选择引用[…].

Leave a Comment

什么是超级NIC?

生成式人工智能是快速变化的数字领域中的最新转变。其中一个开创性的创新是一个相对较新的术语:SuperNIC。 什么是SuperNIC? SuperNIC是一类新的网络加速器,旨在为以太网云中的超大规模人工智能工作负载提供超高速的网络连接。它利用基于收敛以太网(RoCE)技术的远程直接内存访问(RDMA),实现了GPU到GPU通信的闪电般快速的网络连接速度,最高可达到400Gb/s。 SuperNIC具备以下独特的特点: 高速的数据包重新排序,确保数据包按照原始传输的顺序接收和处理,从而保持数据流的顺序完整性。 使用实时遥测数据和网络感知算法进行先进的拥塞控制,以管理和预防人工智能网络中的拥塞。 在输入/输出(I/O)路径上进行可编程计算,以实现人工智能云数据中心网络基础设施的定制和可扩展性。 高效节能的低轮廓设计,以在有限的功率预算内有效容纳人工智能工作负载。 全栈人工智能优化,包括计算、网络、存储、系统软件、通信库和应用框架。 最近,NVIDIA推出了世界上第一个专为人工智能计算定制的SuperNIC,基于BlueField-3网络平台。它是NVIDIA Spectrum-X平台的一部分,能够与Spectrum-4以太网交换机系统无缝集成。 NVIDIA BlueField-3 SuperNIC和Spectrum-4交换机系统共同构成了一个专为优化人工智能工作负载而设计的加速计算架构的基础。Spectrum-X始终提供高网络效率水平,胜过传统以太网环境。 “在人工智能推动下一波技术创新的世界中,BlueField-3 SuperNIC是重要的部件,” NVIDIA数据处理器和网络接口卡产品副总裁Yael Shenhav表示,“SuperNIC确保您的人工智能工作负载高效而快速地执行,成为推动人工智能计算未来的基础组件。” 人工智能和网络的不断演变 由于生成式人工智能和大型语言模型的出现,人工智能领域正在发生巨大变革。这些强大的技术打开了新的可能性,使计算机能够处理新的任务。 人工智能的成功在很大程度上依赖于GPU加速计算,用于处理海量数据、训练大型人工智能模型和实现实时推理。这种新的计算能力开辟了新的可能性,但也对以太网云网络提出了挑战。 传统以太网作为支撑互联网基础设施的技术,最初是为了提供广泛的兼容性和连接松散耦合的应用程序而设计的。它并不适用于处理现代人工智能工作负载的要求,这些要求包括紧密耦合的并行处理、快速数据传输和独特的通信模式,它们都需要优化的网络连接。 基础网络接口卡(NIC)是为通用计算、通用数据传输和互操作性而设计的,它们从未被设计用于应对人工智能工作负载的计算强度所带来的独特挑战。 标准的网络接口卡缺乏有效数据传输、低延迟和决定性性能对于人工智能任务至关重要的特性和功能。而SuperNIC则是专为现代人工智能工作负载而构建的。 人工智能计算环境中的SuperNIC优势…

Leave a Comment