Press "Enter" to skip to content

四海吧 Posts

如何通过动态定价来优化收入?

介绍 Uber/Ola高峰时段的价格比普通车费要高。在IRCTC中,随着预订率的增加,Rajdhani的价格也会增加,在亚马逊中,同一产品的价格会多次变动。是谁决定何时改变这些价格,以及在何种程度上改变?是谁决定在合适的时间定出合适的价格?这些问题的答案都属于动态定价的范畴。本文为初学者提供了一些资源和理论知识,帮助他们构建一个基本的动态定价算法。 学习目标 了解定价的基本知识和不同的定价方法 深入探讨动态定价、优缺点、方法、应用案例等 掌握基本的收入管理知识 使用Python实现一个简单的动态定价算法以最大化收入 本文是作为数据科学博览会的一部分发表的。 何为‘价格’? 2023年8月,洋葱的价格是每公斤120卢比。是什么导致了这个价格?供应因外部环境因素而紧缺,需求保持稳定。市场、买家、卖家、需求和供应共同决定了价格。对于我们今天购买和销售的大多数产品也是如此:电影票、公交车票、电子商务、燃料等。 在价格理论中,需求和供应决定了商品和服务的交易价格。当消费者为商品和服务支付的金额与生产的边际成本相一致时,我们实现了最优市场价格,也称为需求和供应之间的均衡点。在正确的时间定出合适的价格对于业务增长至关重要。因此,定价经理们致力于接近“正确的价格”,这可以通过数据和分析来实现。 影响定价的因素 组织因素:产品库存可用性、预算限制 市场营销组合:产品生命周期阶段、产品、价格、渠道和促销 产品成本:生产成本和原材料成本 产品需求:对产品或服务的需求 市场竞争:竞争对手的定价在很大程度上决定了内部定价 何为动态定价? 动态定价使用最近的趋势、实时客户行为、供需情况和竞争定价来评估所售商品的价格。它允许商品以不同的价格销售,以满足客户满意度并使企业发展壮大。 当需求具有弹性时,采用动态定价策略。当需求不弹性或完全不弹性时,不能采用动态定价策略。当消费者对价格变化非常敏感时,需求的价格弹性很高,这一特性可以通过动态定价来利用。 例如,在班加罗尔,某个时刻和特定地点只有一辆汽车三轮车,而且是一个下雨天,愿意支付更高价格(是每公里费用的两倍或三倍 – 弹性价格)的客户将得到那辆汽车,而不愿意妥协的其他客户将不得不乘坐BMTC公交车,其价格保持恒定(不可弹性)。 动态定价的目标是什么? 增加利润、收入、灵活性、市场份额和客户满意度。…

Leave a Comment

改革语言模型微调:通过NEFTune的噪声嵌入实现前所未有的收益

指令微调是在小规模筛选指令数据集上对LLM进行训练的过程,从而使模型在基于指令的任务上表现出较高的性能。它具有许多优点,例如更好的可解释性、减少偏差和增强任务性能。因此,指令微调对于发挥LLM的全部潜力至关重要,并因此变得必不可少,以改善过程的结果。 本研究论文的作者们提出了一种名为NEFTune(Noisy Embedding Instruction Fine Tuning)的新方法,以改善基于指令任务的模型性能。他们证明通过在微调的前向传递过程中向训练数据的嵌入向量添加随机噪声,可以显著提高模型的性能,而无需额外的计算资源或附加数据。NEFTune在保持事实问答性能的同时,使LLM在对话任务中的性能出乎意料地提高。 研究人员主要使用LLaMA-1、LLaMA-2和OPT-6.7B等7B参数LLM以及Alpaca、ShareGPT等微调数据集进行了大部分实验。使用AplacaEval数据集评估结果,计算胜率-评估者GPT-4确定的LLM优于OpenAI的Text-Davinci-003模型的比率。 结果显示,使用NEFT对这些模型进行训练可以显著提高对话能力和答案质量。在使用噪声嵌入进行微调的情况下,LLaMA-2 7B的性能从29.8%大幅提高至64.7%,所有模型的平均性能提高约15%。除了使用LLM评估性能外,研究人员还使用了人工标注者。NEFT在88个事件中被优先选择,22个情况为平局,对应NEFT的胜率约为74%。 在其中一项实验中,LLaMA-2在Alpaca上进行了有和无NEFT的训练,并被询问了关于量子计算的提示。第二阶段,即使用噪声嵌入,回答更加流利,更清晰地解释了超决和量子纠缠等复杂概念。 研究人员假设在训练时引入噪声到嵌入中,模型变得不那么容易过拟合。模型不再专注于精确的信息分布,如格式细节、文本长度和准确措辞,而是提供了包含在预训练基础模型中的知识和行为的答案。 鉴于指令微调的重要性,多年来研究人员引入了许多模型和方法。NEFT不是第一个使用噪声嵌入来提高性能的方法。然而,它能够显著提高LLM在对话任务中的性能,提供更详细和清晰的解释,例如量子计算等复杂主题。最重要的是,该方法不需要额外的计算资源,本文的作者将其称为微调LLM的“免费午餐”。NEFTune有潜力被广泛应用于未来的LLM开发,使其成为增强LLM在各种现实任务中能力的有希望的工具。

Leave a Comment

T-Mobile美国公司通过亚马逊转录和亚马逊翻译运用人工智能技术,以客户选择的语言提供语音邮件服务

这篇文章由T-Mobile US公司的高级系统架构师Dhurjati Brahma、首席工程师/架构师Jim Chao和副系统架构师Nicholas Zellerhoff共同撰写T-Mobile US公司为其客户提供语音邮件转文字服务,使客户能够快速浏览他们的语音邮件并进行阅读

Leave a Comment

为SDXL探索简单的优化方案

稳定扩散 XL(SDXL) 是 Stability AI 最新的潜在扩散模型,用于生成高质量、逼真的图像。它解决了以前稳定扩散模型的一些挑战,例如处理手部和文本的正确性以及空间上正确的构图。此外,SDXL 还更具上下文意识,并且在生成更好的图像时需要较少的提示词。 然而,所有这些改进都以模型更大的代价为代价。有多大呢?基本的 SDXL 模型有 35 亿个参数(特别是 UNet),比以前的稳定扩散模型大约大了 3 倍。 为了探索如何优化 SDXL 的推理速度和内存使用,我们在 A100 GPU(40 GB)上进行了一些测试。对于每次推理运行,我们会生成 4 张图像,并重复 3 次。在计算推理延迟时,我们只考虑…

Leave a Comment

在雷蛇刀锋:视效明星Surfaced Studio本周在NVIDIA Studio中创造了惊人的科幻世界

视觉特效艺术家Surfaced Studio回到NVIDIA工作室,在那里分享他在全新Razer Blade 16 银色版笔记本电脑上创建的真实世界VFX项目,该笔记本电脑配备GeForce RTX 4080显卡。 Surfaced Studio创造了逼真的数字生成图像,将视觉效果无缝地融合到短片、电视和游戏中。 他通过尝试3D转场来寻找最新科幻项目的灵感:将笔记本屏幕作为从一个世界到另一个世界的门户,就像《奇异博士》中的传送门或《黑客帝国》中的过渡效果。 打破规则,成为英雄 Surfaced Studio的目标是通过他的最新项目打造沉浸式体验。 他解释道:“我希望让观众在被‘吸入’3D世界时感到惊讶。” Surfaced Studio从一个简单的脚本开始,辅以头脑风暴的想法草图和实际拍摄的镜头。“这通常有助于我思考如何完成每个效果以及它们是否可行,”他说。 然后,他拍摄视频并将镜头导入Adobe Premiere Pro进行初步测试剪辑。然后,Surfaced Studio选择最合适的镜头作为使用。 他在Adobe After Effects中清理镜头,使用Warp Stabilizer工具稳定镜头,并使用Mocha Pro工具移除干扰的背景元素。这两种效果都是由他的GeForce…

Leave a Comment

见面DiagrammerGPT:一个创新的两阶段文本到图表生成AI框架,借助LLMs的知识来规划和完善整体图表计划

DiagrammerGPT是一个革命性的两阶段系统,由先进的LLM(如GPT-4)驱动,用于从文本生成图表。该框架利用LLM的布局指导能力生成精确、开放领域、开放平台的图表。第一阶段生成图表计划,然后创建图表和呈现文本标签。这种创新的方法对于需要图表表示的各个领域具有重要意义。 研究人员解决了缺乏用于图表生成的文本到图像(T2I)模型及其相关挑战的问题。它提出了DiagrammerGPT,利用同GPT-4等LLM增强了开放领域图表的准确性。他们的研究引入了AI2D-Caption数据集进行基准测试。通过在开放领域图表生成和人在环路计划编辑等各个方面展示出优越性能,他们的工作鼓励对T2I模型和LLM在图表生成中的能力进行研究。 他们的方法解决了利用T2I模型生成图表的未开发领域。图表是复杂的视觉表示,需要对布局和可读的文本标签进行细致的控制。DiagrammerGPT是一个两阶段的框架,利用LLM生成精确的开放领域图表。他们的方法还提供了AI2D-Caption数据集用于基准测试。它旨在激发关于T2I模型和LLM在图表生成能力方面的研究。 在第一阶段,LLM生成和优化描述实体和布局的图表计划。第二阶段利用DiagramGLIGEN和文本标签呈现来创建图表。AI2D-Caption数据集用作基准。研究人员提供了深入的分析和评估,展示了相对于现有的T2I模型的优越性能。该论文旨在激发图表生成领域的进一步研究。 他们的研究提供了AI2D-Caption数据集,用于基准测试文本到图表生成。他们的工作经过严谨的评估,展示了DiagrammerGPT卓越的图表准确性。进一步的分析涵盖了各个图表生成方面和消融研究。结果展示了LLM在图表生成方面的潜力,并为未来的图表生成领域研究提供了启示。 尽管DiagrammerGPT提供了强大的文本到图表生成能力,但由于潜在的错误和误用,建议谨慎使用,引发了对生成虚假或误导性信息的担忧。使用强大的LLM API开发图表计划可能会导致计算开销,类似于其他基于最新LLM的框架。DiagramGLIGEN模块的局限性根源于预训练权重和生成质量的不完美,这表明需要在量化和蒸馏技术方面取得进展。人类监督对于确保生成的图表的准确性和可靠性至关重要,特别是在人在环路图表计划编辑中。 DiagrammerGPT框架展示了利用LLM进行精确的文本到图表生成的潜力,超越了现有的T2I模型。AI2D-Caption数据集的引入促进了该领域的基准测试。虽然该框架展示了潜力,但它也承认了潜在的错误、高推理成本以及在图表计划编辑中需要人类监督的需求。该研究强调了在减少推理成本方面需要量化和蒸馏技术的进步,并鼓励在图表生成领域进行进一步研究。

Leave a Comment

Aaron Lee, Smith.ai的联合创始人兼首席执行官-采访系列

亚伦·李(Aaron Lee)是Smith.ai的联合创始人兼首席执行官Smith.ai是一个结合了人工智能和人类智慧的平台,提供24/7的客户互动,并配备以北美为基地的代理人,以捕获和转化更多的潜在客户亚伦·李还曾是家得宝(The Home Depot)的前首席技术官,并且是Redbeacon的联合创始人Redbeacon于2012年被家得宝收购

Leave a Comment

“认识Mini-DALLE3 通过提示大型语言模型实现交互式文本生成图像的方法”

人工智能内容生成的快速发展,尤其是在文本到图像(T2I)模型领域,引领了高质量、多样化和创意丰富的人工智能生成内容的新时代。然而,一个重要的局限仍然存在,即通过自然语言描述与这些先进的T2I模型有效沟通,使非专业人士能够获得引人入胜的图像变得具有挑战性。 T2I模型中的最先进方法,如稳定扩散法,擅长从文本提示中生成高质量图像。然而,它们要求用户创建具有词组合、魔术标签和注释的复杂提示,限制了这些模型的用户友好性。此外,现有的T2I模型在对自然语言的理解方面仍然存在限制,导致用户需要掌握模型的特定语言才能进行有效的交流。另外,T2I管道中的文本和数字配置多样,如词权重、负向提示和风格关键字,对非专业用户而言可能很复杂。 为应对这些局限,中国的一个研究团队最近发表了一篇新论文,介绍了一种称为“交互式文本到图像”(iT2I)的创新方法。这种方法使用户能够与大型语言模型(LLM)进行多轮对话,让他们能够通过自然语言迭代地指定图像需求、提供反馈和建议。 iT2I方法利用提示技术和现成的T2I模型来增强LLM在图像生成和精炼方面的能力。它通过消除复杂的提示和配置来显著提高用户友好性,使非专业用户也能轻松使用。 iT2I方法的主要贡献在于引入交互式文本到图像(iT2I)作为一种创新方法,实现用户与AI代理之间的多轮对话,用于交互式图像生成。iT2I可以确保视觉一致性,与语言模型具有可组合性,并支持图像生成、编辑、选择和精炼的各种指令。该论文还提出了一种增强LLM在iT2I方面的方法,并强调了它在内容生成、设计和交互叙事方面的适用性,从而改善了从文本描述生成图像的用户体验。此外,该提议的技术可以轻松集成到现有的LLM中。 为了评估此方法的效果,作者进行了一系列实验,评估了其对LLM能力的影响,比较了不同LLM,并提供了各种情景的实际iT2I示例。实验考虑了iT2I提示对LLM能力的影响,并证明其只产生了轻微的退化。商业LLM成功生成了相应的图像和文本响应,而开源LLM则显示出不同程度的成功。实际示例展示了单轮和多轮图像生成以及交错的文本-图像叙事,突出了系统的能力。 总而言之,该论文介绍了一种交互式文本到图像(iT2I)方法,这是人工智能内容生成的重要进步。这种方法实现了用户与AI代理之间的多轮对话,使图像生成变得用户友好。iT2I增强了语言模型的能力,确保了图像的一致性,并支持各种指令。实验结果显示,对语言模型性能影响较小,使iT2I成为人工智能内容生成领域的一项有前途的创新。

Leave a Comment

了解BOSS:一个增强学习(Reinforcement Learning,简称RL)框架,通过LLM指导训练智能体在新环境中解决新任务

介绍BOSS(自己打造技能):一种创新方法,利用大型语言模型,自主构建多功能技能库,以应对复杂任务,减少指导的需求。与传统的无监督技能获取技术和简单的引导方法相比,BOSS在执行陌生任务时表现更好,具备在新环境中运行的能力。这一创新标志着自主技能获取和应用的重大飞跃。 强化学习旨在优化马尔可夫决策过程中的策略,以最大化预期回报-过去的强化学习研究为复杂任务预训练可重用技能。无监督强化学习主要关注好奇心、可控性和多样性,学习技能时无需人类输入。语言被用于技能参数化和开环规划。BOSS通过大型语言模型扩展技能库,指导探索并奖励完成技能链,提高了长期任务执行的成功率。 传统的机器人学习在很大程度上依赖于监督,而人类在独立学习复杂任务方面表现出色。研究人员将BOSS作为一个框架引入,以最小人为干预的方式自主获取多样、长期的技能。通过技能引导和大型语言模型(LLMs)的指导,BOSS逐步构建和组合技能,以处理复杂任务。无监督的环境交互增强了其策略对于在新环境中解决挑战性任务的鲁棒性。 BOSS引入了一个两阶段的框架。在第一阶段,它使用无监督的强化学习目标获取基础技能集。第二阶段,技能引导,利用LLMs指导技能链接和基于技能完成的奖励。这种方法允许代理从基本技能构建复杂行为。在家庭环境中的实验表明,LLM引导的引导方式在执行陌生的长程任务和新的设置中优于天真的引导和之前的无监督方法。 实验结果证实,LLM引导的BOSS在解决新颖环境中的复杂家庭任务方面表现优异,超过了基于LLM的规划和无监督探索方法。结果呈现了在ALFRED评估中不同长度任务的标准化返回和标准化成功率的四分位数平均值和标准偏差。LLM引导引导的训练代理优于天真引导和之前的无监督方法。BOSS能够从基本技能中自主获取多样、复杂的行为,展示了它在无需专家的机器人技能获取方面的潜力。 在无需专家指导的情况下,LLM引导的BOSS框架在自主解决复杂任务方面表现出色。在执行陌生功能时,LLM引导的训练代理优于天真引导和之前的无监督方法。现实中的家庭实验证实了BOSS在从基本技能中获取多样、复杂行为方面的有效性,强调了其在自主机器人技能获取方面的潜力。BOSS还显示出将强化学习与自然语言理解结合的潜力,利用预训练的语言模型进行指导学习。 未来的研究方向可能包括: 研究无需重置的自主技能学习。 使用BOSS的技能链接方法提出长期任务分解。 拓展无监督强化学习以进行低层技能获取。 同时,加强强化学习与自然语言理解在BOSS框架中的整合也是一个有前途的方向。将BOSS应用于不同领域,并在各种环境和任务背景中评估其性能,可以为进一步的探索提供潜力。

Leave a Comment

在人工智能增强影像时代如何保护您的数字身份

人工智能在生成高度逼真的图像和视频方面取得了显著进展这些由人工智能生成的视觉内容可以用于创造看似真实的虚假内容,导致严重后果例如,深度伪造技术使恶意行为者可以将一个人的脸超级融合到别人的身体上,几乎不可能区分真假…

Leave a Comment