Press "Enter" to skip to content

274 search results for "this"

使用Amazon DocumentDB在Amazon SageMaker Canvas中构建无代码机器学习解决方案

我们很高兴地宣布亚马逊文档数据库(兼容MongoDB)与亚马逊SageMaker Canvas的集成正式发布,这使得亚马逊文档数据库的客户可以在不编写代码的情况下构建和使用生成型人工智能和机器学习(ML)解决方案亚马逊文档数据库是一个完全托管的本地JSON文档数据库,使操作关键业务变得简单且具有成本效益

Leave a Comment

来自Datategy和Math&AI研究所的研究人员为大型语言模型的多模态未来提供了一个观点

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-07-at-2.09.42-AM-1024×739.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Screenshot-2023-12-07-at-2.09.42-AM-150×150.png”/><p>来自法国的Datategy SAS和土耳其的Math & AI Institute的研究人员提出了一种最近兴起的多模态架构的潜在方向。他们研究的核心思想是,经过深入研究的命名实体识别(NER)形式可以在多模态大型语言模型(LLM)设置中加以利用。</p><p>LLaVA、Kosmos或AnyMAL等多模态架构最近一直受到关注,并已在实践中展示了其能力。这些模型可以对文本以外的模态数据进行标记化处理,例如图片,并使用外部的模态特定编码器将其嵌入到联合语言空间中。这样,架构可以以交错的方式提供一种指导调整多模态数据混合文本的手段。</p><p>这篇<a href=”https://www.xiaozhuai.com/this-ai-paper-introduces-rmt-which-combines-retnet-and-transformer-revolutionizing-computer-vision.html”>论文</a>提出,这种通用的架构偏好未来可以拓展成一个更雄心勃勃的设置,他们称之为“全模态时代”。与NER的概念相关的“实体”可以想象成这些类型架构的模态。</p><p>例如,目前的LLMs在推断完整的代数推理方面存在困难。虽然正在进行研究以开发“友好于数学”的特定模型或使用外部工具,但这个问题的一个特定的前景可能是将定量值定义为这个框架中的一种模态。另一个例子是可以由特定的时态认知模态编码器处理的隐式和显式的日期和时间实体。</p><p>LLMs在地理空间理解方面也面临很大困难,远远不被认为是“具备地理空间意识”的。此外,还需要处理数值全局坐标,其中在语言嵌入空间中应准确反映邻近和相邻的概念。因此,将位置作为特殊的地理空间模态纳入,同时配备特殊设计的编码器和联合训练,也可以为此问题提供解决方案。除了这些例子,可以作为模态纳入的第一个潜在实体包括人、机构等。</p><p>作者们认为,这种方法有望解决参数化/非参数化知识扩展和上下文长度限制的问题,因为复杂性和信息可以分布到多个模态编码器中。这也可能解决通过模态注入更新信息的问题。研究人员仅提供了这种潜在框架的边界,并讨论了开发基于实体驱动的语言模型的前景和挑战。</p>

Leave a Comment

在检索增强生成(RAG)和微调之间,你应该选择什么?

近几个月来,大型语言模型(LLMs)的受欢迎度显著上升。基于自然语言处理、自然语言理解和自然语言生成的优势,这些模型在几乎每个行业中展示了它们的能力。随着生成式人工智能的引入,这些模型已经被训练成可以像人类一样产生文字回应。 通过着名的GPT模型,OpenAI展示了LLMs的强大能力,并为转型发展铺平了道路。通过微调和检索增强生成(RAG)等方法,提高了AI模型的能力,为更精确和上下文丰富的回应提供了答案。 检索增强生成(RAG) RAG将基于检索和生成的模型结合在一起。与传统生成式模型不同,RAG在不改变基础模型的情况下融入有针对性和当前性的数据,使其能够超越现有知识的边界。 RAG的基本思想是基于特定组织或领域数据构建知识库。随着知识库的定期更新,生成式人工智能可以访问当前和上下文相关的数据。这使得模型能够以更精确、复杂和适合组织需求的方式回应用户输入。 大量动态数据被转换为标准格式,并存储在知识库中。然后,使用嵌入式语言模型对数据进行处理,创建数值表示,并保存在向量数据库中。RAG确保AI系统不仅能产生文字,还能使用最新的和相关的数据。 微调 微调是一种通过对经过预训练的模型进行定制以执行指定动作或显示特定行为的方法。它包括采用已经训练过大量数据点的现有模型,并对其进行修改以实现更具体的目标。可以将擅长生成自然语言内容的预训练模型优化为关注制作笑话、诗歌或摘要。通过微调,开发人员可以将庞大模型的整体知识和技能应用于特定的主题或任务。 微调对于提高特定任务的性能尤其有益。通过通过精心选择的数据集提供专业信息,模型在特定任务中变得熟练,能够产生精确和上下文相关的输出。与从头开始的训练相比,微调大大减少了所需的时间和计算资源,因为开发人员可以利用预先存在的信息。该方法使得模型能够通过适应特定领域来更有效地给出集中的答案。 评估微调和RAG时考虑的因素 RAG通过定期从外部源请求最新数据而无需频繁模型重新训练,在动态数据情况下表现异常出色。而微调则缺乏召回的保证,因此不太可靠。 RAG通过从其他来源获取相关数据增强了LLMs的能力,非常适合需要访问外部知识的应用,如文档摘要、开放域问答和能够从知识库检索数据的聊天机器人。而微调外部信息对于经常更改的数据源可能不可行。 RAG阻止了对较小模型的使用。而微调则提高了小型模型的效能,能够实现更快、更便宜的推理。 RAG可能不会根据所获得的信息自动调整语言风格或领域专业化,因为它主要专注于信息检索。通过微调允许调整行为、写作风格或特定领域知识,能够提供与特定风格或专业领域深度匹配的答案。 RAG通常不容易出现错误的信息,它的每个答案都是基于检索到的信息。微调可能会减少错误信息,但当面对新的刺激时,可能仍会造成虚构的反应。 RAG通过将响应生成分为离散阶段,提供了透明度,并提供了检索数据的信息。微调增加了回答背后逻辑的不透明性。 RAG和微调的用例有何不同? LLMs可以用于多种NLP任务的微调,如文本分类、情感分析、文本生成等,其中主要目标是根据输入理解和产生文本。RAG模型在需要访问外部知识的任务情况下表现出色,如文档摘要、开放域问答和能够从知识库检索数据的聊天机器人。 基于训练数据的RAG和Fine-tuning的区别 在对LLM进行Fine-tuning时,虽然它们不专门使用检索方法,但它们依赖于任务特定的训练材料,这些材料通常是与目标任务匹配的标记示例。另一方面,RAG模型被训练用于检索和生成任务。这需要将显示成功检索和使用外部信息的数据与生成的监督数据进行结合。 架构差异 为了对LLM进行Fine-tuning,通常需要使用诸如GPT等预训练模型,并在任务特定数据上对其进行训练。架构不变,只对模型参数进行微小修改,以最大化特定任务的性能。RAG模型具有混合架构,通过将外部存储模块与基于GPT的transformer式LLM相结合,实现了从知识源(如数据库或文档集合)的有效检索。 结论 总之,在人工智能这个不断变化发展的领域中,选择RAG和Fine-tuning之间的方法取决于应用需求。这些方法的组合可能会导致更复杂、更适应性强的AI系统,随着语言模型的不断发展。 参考资料…

Leave a Comment

使用亚马逊SageMaker数据并行库实现更快的训练

在过去一年中,大型语言模型(LLM)的训练变得越来越流行,因为发布了一些公开可用的模型,如Llama2,Falcon和StarCoder现在,顾客们正在训练规模空前的LLM,参数数量从10亿到超过1750亿不等训练这些LLM需要大量的计算资源和时间,通常需要数百台机器并运行数周甚至数月

Leave a Comment

人类活动识别中的深度学习:这项AI研究利用树莓派和LSTM引入了自适应方法,以提高地点无关的准确性

Translate this HTML (keep the HTML code in the result) to Chinese: 人体行为识别(HAR)是一项研究领域,专注于开发基于来自各种传感器收集的数据自动识别和分类人类活动的方法和技术。HAR旨在使智能手机、可穿戴设备或智能环境等机器能够实时理解和解读人类活动。 传统上,使用可穿戴传感器和基于摄像头的方法。可穿戴传感器对用户来说不舒适且不方便。基于摄像头的方法需要侵入性安装,引发隐私问题。现有的HAR技术面临位置依赖性、对噪声敏感性以及在各种应用中识别多样化活动时需要更多灵活性等挑战,从智能家居到医疗保健和物联网(IoT)等应用。UTeM采用的方法提供了精确、适应性强且与位置无关的解决方案。 马来西亚梅尔卡大学(UTeM)的研究人员制定了一种人体活动识别(HAR)方法,以应对传统限制。他们引入了一种利用信道状态信息(CSI)和先进深度学习技术的系统。 该系统结合了信道状态信息(CSI)和长短时记忆(LSTM)网络。该系统提取无线通信信道状态的重要指标,实现实时分类和绝对位置无关的感知。LSTM网络通过对活动特征进行顺序学习,简化识别过程并适应不同人和环境中的活动变化。 研究人员强调,首先使用树莓派4和专用固件进行数据收集和预处理,以获取原始信道状态信息(CSI)数据,然后使用MATLAB进行优化,以提高质量和应用。 长短时记忆(LSTM)网络被用于从CSI数据中提取关键特征,从而实现对复杂人类活动的准确识别。他们对LSTM模型和分类流程进行了严格的训练,其中包括用于模式识别的在线阶段和用于增强性能的离线阶段。 该系统引入了使用LSTM算法的信号分割方法,以准确确定人类活动的起点和终点。 研究人员测试了该系统,并发现它在人类活动识别方面达到了令人印象深刻的97%的准确率。它展示了在适应新环境方面的能力,标志着HAR技术的重大进步。 研究人员强调了他们系统的卓越适应性。它可以轻松融入不同的环境,而无需进行大量的重新训练或主要更改。这种灵活性使其成为各个领域的实用解决方案,有效应对各种实际需求。这种方法代表了HAR技术的重大进步,具有在智能家居、医疗保健和物联网等多个行业产生重大影响的潜力。

Leave a Comment

Can't find what you're looking for? Try refining your search: