Press "Enter" to skip to content

186 search results for "意见"

使用Kili和HuggingFace AutoTrain进行意见分类

介绍 了解用户需求对于任何与用户相关的业务来说都是至关重要的。但这也需要大量的辛勤工作和分析,而这是非常昂贵的。为什么不利用机器学习呢?通过使用Auto ML,可以减少编码量。 在本文中,我们将利用HuggingFace AutoTrain和Kili构建一个用于文本分类的主动学习流水线。Kili是一个通过质量训练数据创建的数据中心方法来赋能机器学习的平台。它提供了协作数据标注工具和API,使可靠的数据集构建和模型训练之间的快速迭代成为可能。主动学习是一个过程,其中您将标记的数据添加到数据集中,然后进行迭代地重新训练模型。因此,它是无限的,并且需要人类来标记数据。 作为本文的一个具体示例用例,我们将使用来自Google Play Store的VoAGI用户评论来构建我们的流水线。然后,我们将使用我们构建的流水线对评论进行分类。最后,我们将对分类的评论应用情感分析。然后我们将分析结果,更容易理解用户的需求和满意度。 使用HuggingFace进行自动训练 自动化机器学习是指自动化机器学习流程的一个术语。它还包括数据清洗、模型选择和超参数优化。我们可以使用🤗 transformers进行自动化的超参数搜索。超参数优化是一个困难且耗时的过程。 虽然我们可以通过使用transformers和其他强大的API自己构建我们的流水线,但也可以使用AutoTrain进行完全自动化。AutoTrain是建立在许多强大的API(如transformers、datasets和inference-api)之上的。 数据清洗、模型选择和超参数优化步骤在AutoTrain中都是完全自动化的。可以充分利用这个框架为特定任务构建可供生产使用的SOTA转换器模型。目前,AutoTrain支持二分类和多标签文本分类、标记分类、抽取式问答、文本摘要和文本评分。它还支持英语、德语、法语、西班牙语、芬兰语、瑞典语、印地语、荷兰语等许多语言。如果您的语言在AutoTrain中不受支持,也可以使用自定义模型和自定义分词器。 Kili Kili是一个面向数据中心业务的端到端AI训练平台。Kili提供了优化的标注功能和质量管理工具来管理您的数据。您可以快速注释图像、视频、文本、pdf和语音数据,同时控制数据集的质量。它还具有用于GraphQL和Python的强大API,极大地简化了数据管理。 它可在线或本地使用,并且可以在计算机视觉、自然语言处理和OCR上实现现代机器学习技术。它支持文本分类、命名实体识别(NER)、关系抽取等NLP/OCR任务。它还支持计算机视觉任务,如目标检测、图像转录、视频分类、语义分割等等! Kili是一种商业工具,但您也可以创建一个免费的开发者帐户来尝试Kili的工具。您可以从定价页面了解更多信息。 项目 我们将以评论分类和情感分析为例,来了解一个移动应用程序的见解。 我们从Google Play Store中提取了大约4万条VoAGI的评论。我们将逐步对此数据集中的评论文本进行标注。然后我们将构建一个评论分类的流水线。在建模过程中,第一个模型将使用AutoTrain准备。然后我们还将构建一个不使用AutoTrain的模型。 项目的所有代码和数据集都可以在GitHub存储库中找到。 数据集 让我们首先看一下原始数据集,…

Leave a Comment

AI政策 @🤗 对美国NTIA关于AI问责性的意见回应

在6月12日,Hugging Face向美国商务部NTIA的AI责任政策信息请求提交了回应。在我们的回应中,我们强调了文档和透明度规范在推动AI责任流程中的作用,以及依靠技术的众多利益相关者的全面专业知识、观点和技能来应对这项技术前所未有的增长所带来的问题。 Hugging Face的使命是“民主化良好的机器学习”。我们理解这个上下文中的“民主化”一词是指使机器学习系统不仅更容易开发和部署,而且更容易让众多利益相关者理解、审查和批评。为此,我们致力于通过教育工作、文档化、社区指南和负责任的开放方式来促进透明度和包容性,同时开发了无代码和低代码工具,以便让各种技术背景的人们能够分析机器学习数据集和模型。我们相信,这有助于所有感兴趣的人更好地理解机器学习系统的局限性,以及如何安全地利用这些系统最好地服务用户和受这些系统影响的人们。这些方法已经证明在促进问责方面非常有用,尤其是在我们帮助组织的更大型的跨学科研究项目中,包括BigScience(请参阅我们关于该项目社会利益的博客系列)和最近的BigCode项目(其治理在此处有更详细的描述)。 具体而言,我们对问责机制提出以下建议: 问责机制应当关注机器学习开发过程的所有阶段。完全依赖人工智能系统的社会影响取决于在开发的每个阶段所做的选择,这些选择是不可能完全预测的,而只关注部署阶段的评估可能会鼓励表面层次的合规性,无法解决深层次的问题,直到它们造成了重大损害。 问责机制应当将内部要求与外部访问和透明度相结合。内部要求,如良好的文档实践,塑造了更负责任的开发,并清晰地规定了开发人员在实现更安全和可靠的技术方面的责任。对内部流程和开发选择的外部访问仍然是必要的,以验证声明和文档,并赋予技术的众多利益相关者权力,这些利益相关者并不属于其开发链,但能够有意义地塑造其发展并推动他们的利益。 问责机制应当吸引最广泛的贡献者参与,包括直接从事技术开发的开发人员、跨学科研究社区、倡导组织、政策制定者和新闻工作者。理解机器学习技术迅速增长带来的变革性影响是一个超出任何单个实体能力范围的任务,将需要充分利用我们广泛的研究社区及其直接用户和受影响人口的各种技能和专业知识。 我们相信,优先考虑机器学习工件本身的透明度以及对其评估结果的透明度将对实现这些目标至关重要。您可以在此处找到我们更详细的回应,以解决这些问题。

Leave a Comment

拜登政府提出的人工智能医疗应用标签系统的建议

美国拜登政府推出了一种新的标记系统,用于评估具有人工智能功能的医疗应用程序,旨在优先保障这些应用程序的安全可靠性这一举措将有助于提升医疗应用程序的质量,使其更加可靠和安全,为用户提供更好的医疗体验

Leave a Comment

研究员开发了领域特定的科学聊天机器人

在科学研究中,合作和专家意见至关重要,但在特定领域往往很难获得针对这一问题,布鲁克黑文国家实验室功能性纳米材料中心的电子纳米材料团队负责人凯文·亚格开发了一种具有革命性意义的解决方案:一种专门的人工智能聊天机器人这个聊天机器人因为其与通用聊天机器人的差异而脱颖而出[…]

Leave a Comment

韩国大学的研究人员推出了HierSpeech++:一种具有突破性的人工智能方法,用于高保真度、高效率的文本转语音和语音转换

韩国大学的研究人员开发了一种新的语音合成器,名为HierSpeech++。 这项研究旨在创造出稳健、富有表现力、自然且类似人类的合成语音。 团队的目标是在不依赖文本-语音配对数据集的情况下实现这一目标,并改善现有模型的缺点。 HierSpeech++旨在填补语音合成中的语义和声学表征差距,从而最终改善风格适应性。 到目前为止,基于LLM的零样本语音合成存在一定的局限性。 但是,HierSpeech++已经针对这些限制进行了解决,并改进了鲁棒性和表现力,同时解决了与慢推断速度有关的问题。 通过利用基于文本和韵律提示的自监督语音和F0表示的文本到向量框架,已经证明了HierSpeech++优于基于LLM和扩散的模型的性能。 这些速度、鲁棒性和质量的提升确立了HierSpeech++作为一种功能强大的零样本语音合成器。 HierSpeech++使用分层框架生成语音而无需预先训练。 它采用文本到向量框架来开发基于文本和韵律提示的自监督地址和F0表示。 使用分层变分自编码器和生成的向量、F0和语音提示来产生语音。 该方法还包括高效的语音超分辨率框架。 全面评估使用各种预先训练的模型和实现,采用log-scale Mel错误距离、感知语音质量评估、音高、周期性、有声/无声F1分数、自然度、平均意见分和语音相似性MOS等客观和主观指标。 HierSpeech++在零样本情况下实现了合成语音的优越自然度,提高了鲁棒性、表现力和说话者相似性。 使用自然度平均意见分和语音相似性MOS等主观指标评估了语音的纯真性,并且结果显示HierSpeech++优于真实语音。 进一步将语音超分辨率框架从16 kHz提高到48 kHz,进一步提高了地址的自然度。 实验结果还证明,HierSpeech++中的分层变分自编码器优于基于LLM和扩散的模型,使其成为一种强大的零样本语音合成器。 研究还发现,使用噪声提示的零样本文本到语音合成验证了HierSpeech++在生成未知说话者的语音方面的有效性。 分层合成框架还可以实现多样化的韵律和语音风格转换,使合成语音更加灵活。 总而言之,HierSpeech提供了一种实现零样本语音合成人级质量的高效而强大的框架。 它在语义建模、语音合成、超分辨率和韵律和语音风格转换方面的解耦,提升了合成语音的灵活性。 即使在小规模数据集的情况下,该系统也表现出鲁棒性、表现力、自然度和说话者相似性的改进,并且具有显著更快的推断速度。…

Leave a Comment

使用Amazon SageMaker Clarify和MLOps服務,以大規模操作化LLM評估

在过去的几年中,大型语言模型(LLMs)因其杰出的能力而崭露头角,能够以前所未有的熟练度理解、生成和操纵文本它们的潜在应用领域从对话代理人到内容生成和信息检索,承诺着彻底改变所有行业然而,在确保负责任和…

Leave a Comment

Meta研究介绍了System 2 Attention(S2A):一种使用人工智能技术的方法,使得LLM能够根据输入环境中的重要部分来生成良好的回应

大型语言模型(LLMs)虽然在各种语言任务上高效,但往往显示出弱推理能力,会犯下非常简单的错误。它们有时会因为无关的语境而做出错误的判断,或者展示出一种叫做谄媚的问题,即模型虽然输入的文本是错误的,但仍然同意它。研究人员试图通过增加监督式训练数据或采用强化学习策略来解决这些问题。然而,更有效的解决方案是修复变压器架构中的潜在瓶颈,特别是注意机制。 在变压器中,软注意力往往会赋予输入文本的大部分重要性,包括不相关的内容。此外,由于训练方式的原因,它过于关注重复的标记,导致了上述问题。Meta的研究人员团队引入了一种新方法,称为系统2注意力(S2A),利用调整指令的LLM来识别和提取输入上下文的最相关部分,从而减轻了不必要信息的影响。这种方法的另一个优点是,控制LLM的注意力焦点成为可能,类似于人类如何处理注意力。 变压器中的注意机制使其能够识别文本中的相关性。虽然这增强了模型的下一个单词预测能力,但同时也使得模型更容易被语境中的错误相关性所误导。文本中重复单词的概率随着每次迭代而增加,形成了一个正反馈循环,导致模型专注于特定主题。S2A的工作方式是首先删除上下文中的不必要部分并重新生成,然后将其用于输出最终结果,而不是使用原始文本。 研究人员进行了各种实验来测试他们方法的性能。他们得出了以下结果: S2A提高了模型对有关观点的问题的真实性。 S2A增加了长篇生成文本的客观性,表明它不容易受到意见的影响。 此外,S2A还提高了模型在包含无关句子的数学问题上的性能。 研究人员还测试了S2A方法的不同变体(关注相关性而非无关性,删除不必要的词后保留原始语境等)。他们发现,除了少数实验外,这些变体的表现不如原始方法。 尽管该方法能够绕过无关信息,但仍可能受到其影响。此外,与标准LLM再生相比,它更具计算开销。然而,这个问题可以通过加快技巧来解决,研究人员将其留给未来工作。总体而言,S2A是一种可以防止LLM专注于文本中不重要部分以增加模型能力的方法。该技术改善了模型在处理观点提示和包含无关句子的数学问题时的性能。虽然仍有进一步改进的空间,但也可以探索其他途径以提高LLMs的推理能力。

Leave a Comment

AWS reInvent 2023生成AI和ML指南

是的,AWS reInvent季节已经到来,一如既往,这个时候应该去的地方是拉斯维加斯!你已经在日历上做了标记,预订了酒店,甚至购买了机票现在你只需要一些有关生成AI和机器学习(ML)的指导,以便在第十二届reInvent大会上参加相关的会议虽然生成AI在之前的活动中出现过,但今年我们将把它提升到一个新的水平除了在主题演讲中发布多个令人兴奋的新闻之外,我们的讲座中的大部分都将以某种形式涉及到生成AI,所以我们可以真正称之为“生成AI和机器学习”专题在这篇文章中,我们将为您介绍该专题的组织方式,并突出几个我们认为您会喜欢的会议虽然我们的专题侧重于生成AI,但许多其他专题也有相关的会议在浏览会议目录时,请使用“生成AI”标签来查找它们

Leave a Comment

“自动聚类的启动:探索多智能体框架的基础知识”

介绍 踏上一段激动人心的旅程,探索多智能体框架的基础知识,并进入软件开发的未来,这就是“自动产生:探索多智能体框架基础”的主题。在OpenAI的ChatGPT之后,一个名为LLM(LLM agent)的专业领域正在经历前所未有的飞速发展,彻底改变了AI代理开发。从自动化繁琐任务到解决动态决策中的挑战,LLM代理正在挑战曾经被认为不可能的界限。 随着我们进入空间计算时代,设想一个世界,计算机与现实无缝融合,AI代理的重要性变得至关重要。想象一下通过语言和手势指令代理完成任务,具有无与伦比的推理和行动能力。然而,我们正处于AI代理革命的黎明期,见证着新的基础设施、工具和框架的诞生,这些赋予代理应对越来越复杂任务的能力。剪裁多智能体聊天系统的先进框架Autogen,在我们的探索中扮演重要的角色。 在这篇文章中,让我们一起揭开AI代理革命的早期阶段的细节,深入了解Autogen的能力,并探索如何让这些智能实体焕发生机。 学习目标 了解什么是LLM代理 学习Autogen是什么,并探索使用Autogen构建代理的基础知识 使用Autogen和OpenAI API构建代理 探索LLM代理的现实世界应用案例 本文是《数据科学博文马拉松》的一部分。 什么是LLM代理? 传统的语言模型在许多方面都表现出色,例如翻译、问答等。然而,它们的知识和能力是有限的。这就像是一名泥瓦工在修筑房子时缺少工具一样。然而,有观察发现,LLM代理在给予必要的工具后能够进行推理和行动。大多数LLM代理对世界的了解有限,但我们可以通过提示将它们与自定义来源的信息进行增强。 我们可以通过两种方法实现这一目标:检索增强生成和LLM代理。在检索增强生成中,我们通过自定义的硬编码流程将信息提供给模型。但对于代理来说,基于其推理,LLM代理将利用其掌握的工具。例如,带有Serp工具的GPT-4将浏览互联网并相应地回答,或者在可以访问雅虎金融工具时,它可以获取和分析股票表现。因此,LLM模型、工具和用于推理和采取行动的框架的组合就是AI代理的概念。 构建LLM代理的平台和工具急剧增长。Autogen就是其中之一。让我们了解一下Autogen是什么,以及如何使用它来创建LLM代理。 什么是Autogen? Autogen是微软推出的一款面向构建稳定多智能体应用的开源工具。该工具从头开始设计,充分考虑到多智能体之间的通信。它允许我们创建LLM应用程序,其中多个代理互相对话以找到解决方案。这些代理是高度可定制的,意味着我们可以引导它们执行特定的任务。它还与Langchain工具生态系统完美集成,这意味着我们可以利用现有的Langchain工具来增强我们的代理。 为了完成任务,Autogen提供了不同类型的代理,包括: 助理代理:负责完成编码、审核等任务 用户代理:如其名称所示,这些代理代表最终用户行动。这些代理将人类引入代理循环,以引导对话 可教授代理:该代理被配置为易于教授。我们可以向代理提供LLM中缺失的显式信息 我们在大多数情况下只需要一个助理代理和用户代理进行配置。所以,让我们看看如何使用 Autogen 配置代理。RAG…

Leave a Comment

Can't find what you're looking for? Try refining your search: