Press "Enter" to skip to content

四海吧 Posts

见面GPTCache:开发LLM查询语义缓存的库

ChatGPT和大型语言模型(LLMs)非常灵活,可以创建多种程序。然而,当应用程序受欢迎并且流量增加时,与LLM API调用相关的成本可能变得显著。在处理许多查询时,LLM服务可能还需要较长的等待时间。 为了直面这一困难,研究人员开发了GPTCache,这是一个旨在存储LLM答案的语义缓存项目。开源的GPTCache程序可以通过缓存其输出答案来加快LLMs的速度。当所请求的响应已经在缓存中存储并且之前已经请求过时,这将极大地减少获取它所需的时间。 GPTCache具有灵活和简单的特点,非常适合任何应用。它与许多语言学习机器(LLMs)兼容,例如OpenAI的ChatGPT。 它是如何工作的? 为了正常运行,GPTCache会缓存LLM的最终回复。缓存是用于快速检索最近使用的信息的内存缓冲区。每当向LLM发出新请求时,GPTCache首先查找缓存,以确定所请求的响应是否已经存储在其中。如果答案可以在缓存中找到,它将立即返回。如果缓存中没有找到,LLM将生成响应并将其添加到缓存中。 GPTCache的模块化架构使其易于实施定制的语义缓存解决方案。用户可以通过选择不同的设置来定制每个模块的体验。 LLM适配器通过将各种LLM模型使用的API和请求协议标准化为OpenAI API,统一了它们之间的接口。由于LLM适配器可以在不需要重写代码或熟悉新API的情况下在LLM模型之间移动,它简化了测试和实验。 嵌入生成器使用所请求的模型创建嵌入,以进行相似性搜索。支持的模型可以使用OpenAI的嵌入API。这是使用GPTCache/paraphrase-albert-onnx模型的ONNX,Hugging Face嵌入API,Cohere嵌入API,fastText嵌入API和SentenceTransformers嵌入API。 在缓存存储中,像ChatGPT这样的LLM的响应被保留,直到可以检索。在确定两个实体是否在语义上相似时,会获取缓存的回复并将其发送回请求方。GPTCache与许多不同的数据库管理系统兼容。用户可以选择最符合其性能、可扩展性和最常用数据库成本要求的数据库。 向量存储的选择:GPTCache包括一个向量存储模块,它使用从原始请求中导出的嵌入来识别K个最相似的请求。此功能可用于确定两个请求的相似程度。此外,GPTCache支持多个向量存储,例如Milvus、Zilliz Cloud和FAISS,并为与它们一起使用提供了简单的接口。用户可以选择各种向量存储选项,其中任何一个都可能影响GPTCache的相似性搜索性能。凭借对各种向量存储的支持,GPTCache承诺是可适应的,并满足更多种用例的需求。 GPTCache缓存管理器管理缓存存储和向量存储组件的驱逐策略。当缓存被填满时,替换策略决定哪些旧数据应该从缓存中删除,以为新数据腾出空间。 相似性评估器的信息来自于GPTCache的缓存存储和向量存储部分。它使用几种不同的方法将输入请求与向量存储中的请求进行比较。是否从缓存中提供请求取决于相似度的程度。GPTCache提供了统一的接口和可用实现的库,以确定缓存匹配。GPTCache通过各种相似度算法来确定缓存匹配的能力,使其能够适应大范围的用例和用户需求。 特点和优势 通过GPTCache减少LLM查询延迟,提高响应速度和速度。 由于许多LLM服务采用基于令牌和请求的定价结构,GPTCache可以减少服务成本,限制API调用次数。 GPTCache具有从LLM服务卸载工作的能力,提高可扩展性。随着您接收的请求数量增加,这可以帮助您保持高效运行。 借助GPTCache,可以将创建LLM应用程序的成本降至最低。通过缓存由LLM生成或模拟的数据,您可以在不向LLM服务发出API请求的情况下测试您的应用程序。 GPTCache可以与您选择的应用程序(LLM ChatGPT)、缓存存储(SQLite、PostgreSQL、MySQL、MariaDB、SQL Server或Oracle)和向量存储(FAISS、Milvus、Ziliz Cloud)配合使用。GPTCache项目的目标是在GPT-based应用程序中尽可能地重用先前生成的回复,而不是每次都从空白开始,从而实现对语言模型的最有效利用。

Leave a Comment

通过使用Amazon SageMaker Canvas,将数据处理、训练和推理的性能提升70%,加速业务成果

Amazon SageMaker Canvas是一个可视化界面,让业务分析师能够在没有任何机器学习(ML)经验或不需要编写一行代码的情况下生成准确的机器学习预测SageMaker Canvas的直观用户界面允许业务分析师浏览和访问云端或本地的不同数据源,[…]

Leave a Comment

“终极GFN周四:41款新游戏,加上‘巴尔德之门3’正式发布和首批贝塞斯达游戏将于八月加入云端”

终极升级已经完成 — GeForce NOW终极性能现在在整个北美和欧洲地区进行流媒体传输,为这些地区的玩家提供了与RTX 4080相当的强大性能。在本月庆祝活动中,除了完整版的《博德之门3》的发布之外,还有41款新游戏,以及首批进入云端的Bethesda游戏,NVIDIA和Microsoft的合作使全球玩家受益。 而且,不要错过GeForce NOW在QuakeCon上的表现 — 这个流行的自带PC设备的大型活动将于8月10日至13日举行,届时将启动线下和线上的GeForce NOW终极挑战。 此外,与游戏外设和配件公司SteelSeries一起畅玩游戏,他们将赠送三天的GeForce NOW终极会员和优先会员代码,以及热门的GeForce NOW游戏和游戏内好处。 终极发布 终极会员们已经发挥出他们的最大PC游戏潜力。 今年全球范围内的GeForce RTX 4080 SuperPOD推出点亮了城市,带来了来自云端的尖端性能。RTX 3080会员们获得了终极会员资格,享受4K分辨率每秒120帧甚至每秒240帧的游戏体验,得益于NVIDIA Reflex技术的超低延迟。 终极会员还享受NVIDIA Ada Lovelace架构的好处,包括DLSS 3,为最高帧率和视觉保真度提供帧生成,以及全面的光线追踪,营造出最沉浸式、电影化的游戏内照明体验。此外,云端首次支持超宽分辨率。…

Leave a Comment

将办公365迁移和管理外包的最重要原因

什么是Office 365迁移和管理?微软Office 365迁移是许多企业如今正在遵循的过程,以为员工提供更好的工作条件Office 365迁移是将业务操作转移到一个新的创新在线平台的过程通过迁移到微软Office 365,企业拥有…外包Office 365迁移和管理的顶级原因 阅读更多 »

Leave a Comment

这篇人工智能论文提出了一种针对大规模视觉与语言导航(VLN)训练的有效范式,并对管道中的每个组成部分的影响进行了定量评估

已经收集了多个人类演示用于学习视觉导航,最近的大规模数据集包含数百个交互场景,这些都显著提高了智能体的性能。然而,要进行如此大规模的训练需要解决一些关键的子问题,例如如何构建导航图,恢复损坏的渲染图像和生成导航指令。所有这些都对收集的数据质量产生重大影响,因此应该进行深入探索。 研究如何有效利用大规模数据来适当地训练导航智能体非常必要,一个能够理解人类自然语言并在逼真环境中导航的智能体是一个复杂而模块化的系统。 为了训练大规模的视觉与语言导航网络(VLNs),澳大利亚国立大学、OpenGVLab、上海人工智能实验室、UNC教堂山分校、阿德莱德大学和Adobe研究团队提供了一种新的范式,通过统计评估管道中每个组件的影响。他们使用Habitat模拟器,从HM3D和Gibson数据集中使用环境,为环境构建导航图。他们采样新的轨迹,创建指令,并训练智能体解决下游导航问题。 与AutoVLN和MARVAL等先前方法不同,这些导航图通过过度视点采样和聚合过程构建,采用了引入的图形创建启发式方法。这种方法产生了具有广泛室外覆盖范围的全连接网络。 研究人员还训练了Co-Modulated GAN,从HM3D和Gibson环境中的损坏生成图像的破损、变形或缺失部分生成逼真图像,减少了视觉数据噪声的影响。与MARVAL相比,这种大规模训练方案是完全可复现且易于执行的,同时明显提高了智能体的性能。 广泛的实验证明,如果智能体要在特定指令的下游任务(如R2R)上表现更好,导航图必须是完全可遍历的。此外,研究结果还表明,从新场景中学习而不仅仅是增加数据量,智能体通常可以使用更多样化的视觉数据,并提高对新环境的泛化能力。 此外,团队验证了在基于LSTM的基本模型提供的增强指令上训练的智能体在各种导航任务上表现良好。他们得出结论,通过在预训练和微调过程中将增强数据与原始数据整合,可以提高智能体的泛化能力。 令人惊讶的是,通过将上述分析作为数据增强和智能体训练的指导方针,所提出的VLN模型可以通过简单的模仿学习在R2R测试集上实现80%的成功率,而无需预探索、波束搜索或模型集成,并消除了已知和未知环境之间的导航差距。这一结果相比先前最佳方法(73%)有了巨大的改进,将性能差距缩小到了6个百分点以内,接近人类水平。对于诸如CVDN和REVERIE等几个语言引导的视觉导航挑战,该方法推动了最新技术的发展。即使增强数据是离散的,该方法在连续环境(R2R-CE)中将VLN性能提高了5%的成功率,这是一个更为现实但具有挑战性的场景。

Leave a Comment

必须了解的10种常见的坏数据案例及其解决方案

介绍 在数据驱动的时代,高质量的数据的重要性不言而喻。数据的准确性和可靠性在塑造重要的业务决策中起着至关重要的作用,对组织的声誉和长期成功产生影响。然而,糟糕或低质量的数据可能导致灾难性的结果。为了防范此类风险,组织必须警惕地识别和消除这些数据问题。在本文中,我们提供了一个全面的指南,以识别并解决十种常见的坏数据情况,使企业能够做出明智的选择,保持其数据驱动努力的完整性。 什么是坏数据? 坏数据指的是不适合收集和处理目的的数据质量。从不同的社交媒体网站或任何其他方法直接提取的原始数据属于坏质量和原始数据。它需要加工和清洗以提高其质量。 为什么数据质量重要? 数据在公司中担当着多种用途。作为多个决策和功能的基础,数据质量的妥协影响整个过程。它负责准确性。数据的一致性、可靠性和完整性是需要单独和详细行动的重要方面。 十大坏数据问题及其解决方案 以下是您必须了解的十个糟糕数据问题及其潜在解决方案: 不一致的数据 缺失值 重复条目 异常值 非结构化数据 数据不准确 数据不完整 数据偏见 不充分的数据安全性 数据治理和质量管理 不一致的数据 在存在冲突或矛盾值的情况下,数据被定义为不一致的。造成这种情况的原因是从不同的数据收集方法收集后得到的各种类型的结果不同。这也可能是由于数据在不同时间段的不对齐引起的,原因可能是测量误差、抽样方法等多种原因。 挑战 不正确的结论:导致得出不正确或误导性的分析,影响结果 信任减少:降低信任度 资源浪费:处理不一致和错误的数据浪费了工作、资源和时间 偏见决策:不一致导致偏见数据,从而导致生成和接受一种观点…

Leave a Comment

“遇见LP-MusicCaps:一种利用大型语言模型进行标签到伪字幕生成的方法,以解决自动音乐字幕生成中的数据稀缺问题”

音乐标题生成涉及通过生成给定音乐曲目的自然语言描述来进行音乐信息检索。生成的标题是句子的文本描述,区别于其他音乐语义理解任务,如音乐标记。这些模型通常使用编码器-解码器框架。 关于音乐标题生成的研究有了显著增长。然而,尽管其重要性,研究这些技术的研究人员面临着数据集收集的昂贵和繁琐任务的障碍。此外,可用的音乐-语言数据集数量有限,这也带来了挑战。由于数据集的稀缺性,成功训练音乐标题生成模型并不容易。大型语言模型(LLMs)可能是音乐标题生成的潜在解决方案。LLMs是具有超过十亿个参数的前沿模型,能够在少量或零个示例的情况下处理任务并展现出令人印象深刻的能力。这些模型通过从维基百科、GitHub、聊天记录、医学文章、法律文章、书籍和从互联网爬取的网页等各种来源的大量文本数据进行训练。广泛的训练使它们能够理解和解释各种上下文和领域中的单词。 随后,韩国的一支研究团队开发了一种称为LP-MusicCaps(基于大型语言的伪音乐标题数据集)的方法,通过将LLMs谨慎应用于标记数据集来创建一个音乐标题数据集。他们对大规模音乐标题数据集进行了系统评估,使用了自然语言处理领域中的各种定量评估指标以及人工评估。结果生成了大约220万个与50万个音频剪辑配对的标题。首先,他们提出了一种基于LLM的方法来生成音乐标题数据集LP-MusicCaps。其次,他们提出了一种用于对LLMs生成的音乐标题进行系统评估的方案。第三,他们证明了在LP-MusicCaps上训练的模型在零样本和迁移学习场景中表现良好,证明了使用基于LLM的伪音乐标题的合理性。 研究人员首先从现有的音乐标记数据集中收集多标签标签。这些标签涵盖了音乐的各个方面,如流派、情绪、乐器等。他们仔细构建了任务说明,为音乐曲目生成描述性句子,这些句子作为大型语言模型的输入(提示)。由于其在各种任务中表现出色,他们选择了强大的GPT-3.5 Turbo语言模型来执行音乐标题生成。GPT-3.5 Turbo的训练过程包括一个具有大量数据的初始阶段,并且受益于巨大的计算能力。随后,他们使用增强学习和人类反馈进行微调。这个微调过程旨在提高模型与指令有效交互的能力。 研究人员将基于LLM的标题生成器与基于模板的方法(标签连接、提示模板)和K2C增强进行了比较。在K2C增强的情况下,当指令缺失时,输入标签会被省略在生成的标题中,导致生成的句子可能与歌曲描述无关。另一方面,基于模板的模型表现出更好的性能,因为它从模板中存在的音乐上下文中受益。 他们使用BERT-Score指标评估生成的标题的多样性。这个框架显示出更高的BERT-Score值,生成具有更多样化词汇的标题。这意味着该方法生成的标题提供了更广泛的语言表达和变化,使其更具吸引力和丰富上下文。 随着研究人员不断完善和提升他们的方法,他们也期待利用语言模型的力量来推动音乐标题生成并为音乐信息检索做出贡献。

Leave a Comment

2023年体育分析的一切你需要知道的

在这个充满活力的体育时代,体育分析师的角色变得更加关键。了解塑造体育数据分析的最新趋势、尖端技术和创新方法。从比赛策略到运动员表现优化,体育分析正在改变团队和运动员的准备、竞争和成功方式。在本文中,我们将讨论体育分析的复杂性,探索它对体育结果、球迷参与度和不断发展的优秀运动员领域的影响。无论您是经验丰富的体育分析师还是好奇的爱好者,准备好利用数据驱动的洞察力揭开体育胜利背后的秘密吧! 什么是体育分析? 体育分析涉及收集、分析和解释数据,以深入了解运动员表现、团队策略和球员动态。随着技术的进步和体育的日益普及,数据分析已经成为体育产业中的一个改变者。它为团队提供宝贵的信息,以做出数据驱动的决策并提高表现。同样,球迷也从数据分析中受益,深入了解他们最喜爱的体育和运动员。 体育分析数据有什么用处? 以下是体育分析有用的一些方式: 决策 在决策过程中,体育分析数据提供了关键的洞察力,包括过去的表现、球员统计数据和比赛场景。教练和管理人员可以利用这些信息做出关于策略、替补模式和比赛计划的明智决策,最终增加团队成功的机会。 球员选拔 数据分析在球员选拔中发挥着至关重要的作用,通过客观评估表现和潜力。通过分析绩效指标并将其与团队要求进行比较,球探和管理人员可以确定与团队的比赛风格和需求相符合的有才华的球员。 运动员力学训练 体育分析数据使体育科学家和教练能够在训练课程和比赛中分析运动员的生物力学。这些信息有助于确定运动员技术和形态的改进领域,为优化表现和减少受伤风险提供个性化的训练计划。 训练计划 数据分析在优化运动员训练计划方面起着重要作用。通过分析工作负荷数据、恢复指标和绩效趋势,教练可以设计平衡强度和休息周期的训练计划,提高表现,降低过度训练或受伤的风险。 比赛中的战术调整 在比赛中,体育分析数据提供实时洞察力,有助于进行战术调整。教练可以评估球员和团队表现,追踪对手的模式,并确定弱点,从而使他们能够做出战略决策并调整战术,以获得竞争优势。 预防和管理伤病 体育分析数据有助于识别运动员之间的伤病模式和风险因素。通过分析运动员工作负荷、生物力学和病史数据,团队可以实施预防措施并制定个性化的康复计划,降低受伤的可能性,保持运动员健康。 比赛策略和战术分析 教练使用体育分析数据深入了解对手的比赛风格、优势和弱点。这些信息使他们能够制定有效的比赛策略,并根据实时数据做出比赛中的战术调整,增加在场上取得成功的机会。 表现提升 体育分析数据有助于确定个人球员和整个团队的改进领域。通过分析各种绩效指标,教练可以针对特定技能和健身组成部分进行目标化改进,从而提高表现和竞争优势。 球迷参与和体验 体育分析数据帮助体育组织更好地了解他们的球迷。通过分析球迷行为、偏好和参与模式,团队可以量身定制营销活动、社交媒体内容和球迷体验,建立更强的联系并培养支持者的忠诚度。 合同谈判和薪资限制管理 在合同谈判和薪资限制管理过程中,数据驱动的分析至关重要。体育分析数据评估球员的表现、潜力和市场价值,确保公平的运动员补偿,并优化团队的预算分配,打造一个平衡和竞争力强的阵容。…

Leave a Comment

认识LoraHub:一种战略性的人工智能框架,用于组合在不同任务上训练的LoRA(低秩适应)模块,以实现在新任务上的可适应性能

大规模预训练语言模型(LLM)如OpenAI GPT、Flan-T5和LLaMA极大地推动了自然语言处理(NLP)的快速发展。这些模型在各种NLP应用中表现出色。然而,在微调过程中,由于它们庞大的参数规模,计算效率和内存利用存在问题。 近年来,低秩适应(LoRA)的崛起成为一种有效的调优工具。它通过减少所需的内存和计算量来加快LLM的训练。LoRA通过固定主模型的参数(一个LLM)并学习一个小型的补充模块来实现这一目标,该模块可靠地在指定的任务上表现良好。 LoRA所带来的效率提升一直是以前的研究重点,但LoRA模块的模块化和可组合性却受到了极少关注。必须研究LoRA模块是否可以高效地推广到未知问题。 来自Sea AI Lab、华盛顿大学和Allen Institute for AI的研究人员决定利用LoRA的模块化能力,使其能够灵活应对新的挑战,而不仅仅局限于特定任务的训练。他们的方法的关键优势在于,它允许LoRA模块在没有人为干预或专门知识的情况下自动组装。 该方法可以通过使用以前未识别任务的几个样本自动安排合适的LoRA模块。因为研究人员不假设哪些训练在哪些任务上的LoRA模块可以集成,满足要求的所有模块(例如通过利用相同的LLM)都可以进行合并。他们将这种学习技术称为LoraHub学习,因为它使用了已有的几个不同的LoRA模块。 为了确保其有效性,团队使用行业标准的BBH基准和Flan-T5作为底层LLM来评估他们的方法。结果表明,几次少样本的LoraHub学习过程可以为新任务组合LoRA模块,效果接近少样本、上下文学习。与上下文学习相比,消除了LLM的实例输入需求,从而显著降低了推理成本。该学习技术采用无梯度的方法生成LoRA模块的系数,只需要少量的推理步骤。以单个A100为例,在不到一分钟内,该方法可以在BBH上达到顶级性能。 在LoraHub上的学习仅需要了解如何处理LLM推理。因此,它可以在仅有CPU的计算机上完成。这项工作的灵活性和高性能为创建一个平台铺平了道路,在这个领域里,训练过的LoRA模块可以轻松共享、访问和应用于新的任务。团队希望这样的系统能够允许开发一个具有广泛功能的可重用LoRA模块库。该团队正在努力动态组合LoRA节点,以提高LLM的能力,使其适用于所有人。

Leave a Comment

使用生成式人工智能和Amazon Kendra,在企业规模上自动化生成图像标题和搜索

亚马逊肯德拉是一款由机器学习(ML)驱动的智能搜索服务亚马逊肯德拉重新构想了网站和应用程序的搜索功能,使您的员工和客户能够轻松找到他们正在寻找的内容,即使这些内容分散在组织内的多个位置和内容存储库中亚马逊肯德拉支持多种文档类型[…]

Leave a Comment

SageMakerDistribution 现在可以在Amazon SageMaker Studio上使用

SageMaker Distribution是一个预先构建的Docker镜像,包含许多用于机器学习(ML)、数据科学和数据可视化的流行软件包这包括PyTorch、TensorFlow和Keras等深度学习框架;NumPy、scikit-learn和pandas等流行Python软件包;以及JupyterLab等集成开发环境除此之外,SageMaker Distribution还支持conda、micromamba和pip作为Python的工具

Leave a Comment