Press "Enter" to skip to content

四海吧 Posts

三种令人惊奇的创新方法来改进您的业务

全球的企业在许多方面存在差异有些更加注重可持续性,而其他企业则更专注于为客户提供有效的解决方案尽管每个企业的目标可能因许多因素而不同,但在基本层面上仍有许多共同之处每个企业都希望学到更多的东西是其中一个基本目标… 三种令人惊叹的创新企业的方式 阅读更多 »

Leave a Comment

加州大学洛杉矶分校的研究人员推出了一种名为“重述和回答”(RaR)的新人工智能方法,可以增强语言模型对人类问题的理解

一支研究团队引入了Rephrase and Respond(RaR)的方法,旨在通过允许语言模型重新表述和扩展人类提出的问题,以提高其性能。该方法在各种任务中表现出了有效性,其中两步扩展的变体增强了翻译问题的利用。实验证明,与其他方法相比,该方法显著提高了性能,并强调了与Chain-of-Thought(CoT)方法的互补性。 RaR使得语言模型能够通过单个提示重新表述和扩展人类提出的问题。与CoT方法相比,RaR在使用代币方面具有成本效益优势。该方法旨在解决人类和语言模型之间的认知偏差和思维框架对沟通的影响,以提高语义清晰度。评估任务包括日期理解和尾字串联等,通过零摄像头准确性评估中文成语任务和语言建模、陈规和公平分数来评估GPT-4的回答。 该研究解决了人类和语言模型之间的误解,并强调了认知偏差和思维框架对沟通的影响。研究强调了为语言模型精确制定提示的重要性以提高回答质量。该研究提出了一种成本效益方法,允许语言模型重新表述和扩展人类提出的问题,以提高理解和准确性。该方法与CoT方法进行了有利比较。它解决了基准数据集中的不确定性问题,旨在提高语言模型的性能并促进公平评估。 RaR的方法使得语言模型能够通过单个提示重新表述和扩展人类提出的问题。提出了一种两步扩展的RaR变体,包括重新表述语言模型和响应语言模型。该方法强调了RaR与CoT方法的互补性,得到了理论和实证比较的支持。实验结果展示了RaR在不同任务中提高各种模型性能的有效性。 RaR与CoT方法的互补性得到了强调,进一步提升了综合性能。与CoT相比,该技术具有成本效益,使用更少的代币实现了改进的结果。RaR便于从高级模型向容量较低的模型进行问题转移,解决了不确定性问题。该方法强调了公平的语言模型能力评估的重要性,并倡导对人工制定任务进行严格审查。RaR的无监督和无需训练的特性增强了其适用性,适用于所有问题,确保经济效益。 经过基准数据集上的实证评估,RaR得到证明是CoT方法的补充。强调了提高问题质量的可传递性,突出了RaR的成本效益、无监督性质和广泛适用性。它主张公平的语言模型能力评估和对人工制定的针对特定能力的任务严格审查,强调自然语言理解领域中这些进展的重要性。 关于RaR方法的未来研究探索其与其他提示技术的结合,以提高语言模型的性能。需要调查RaR在不同语言模型架构和数据集上的可扩展性和普适性。在实际应用和用户案例中评估RaR可以评估其实际效用。为了进一步研究,需要自动生成重新表述问题的自动化方法,探讨不同重新表述策略的影响,解决潜在限制,并开发公平评估语言模型能力的方法学。比较其他提示方法的标准化基准可以增强该领域的研究。

Leave a Comment

Etan Ginsberg, Martian联合创始人 – 采访系列

埃坦·金斯伯格是 Martian 的联合创始人,Martian 是一个动态路由每个提示到最佳 LLM 的平台通过路由,Martian 实现了比任何单个提供商(包括 GPT-4)更高的性能和更低的成本该系统基于该公司独特的模型映射技术,将复杂的黑盒中的 LLM 解释为更可理解的形式

Leave a Comment

OpenAI面临需求激增:暂停ChatGPT Plus注册

OpenAI(开放AI),人工智能领域的先驱,面临着需求激增的压力,因此暂时停止了新的订阅ChatGPT Plus高级服务的注册。首席执行官山姆·奥尔特曼(Sam Altman)在DevDay之后的使用激增上表示,其容量存在挑战,并强调致力于确保卓越的用户体验。 暂停和用户通知 奥尔特曼在X(前身为Twitter)上分享了DevDay后的激增超出了他们的容量,导致ChatGPT Plus新用户注册的暂时停止。在这一暂停期间,像先进的GPT-4 Turbo和自定义GPT等功能都将暂停提供。尽管如此,用户被鼓励在应用程序内进行签约,以确保在订阅重新开放时迅速获得增强功能的访问。 DevDay的影响和GPT创新 需求激增归因于OpenAI在2023年的DevDay上发布的生成式预训练转换器(GPT)。这些GPT赋予开发者和企业以强大的能力,实现各种应用,包括在Canva等平台上进行图形设计。会议展示了超过5,000个GPT,让用户可以轻松地构建模型,无需编码。 容量之外的挑战 – 停机和GPT-5开发 OpenAI不仅面临容量问题的挑战,最近ChatGPT的停机也暗示了可能的分布式拒绝服务(DDoS)攻击。对攻击来源和动机的调查正在进行中。与此同时,该公司正在秘密进行GPT-5的研发,奥尔特曼透露其训练需要大量增加数据量。数据将从公共数据集和来自私人公司的专有数据中提取。 我们的观点 在OpenAI应对需求激增的同时,ChatGPT Plus注册临时暂停反映了确保无缝用户体验的承诺。通过GPT-4 Turbo的创新进展以及对GPT-5的期待,OpenAI坚定不移地致力于推动人工智能的边界。用户热切期待订阅重新开放时,人工智能领域将继续发展,OpenAI在不久的将来将有更多的突破性发展。

Leave a Comment

2023年的训练-测试-验证分割的综合指南

简介 有监督学习的目标是构建一个在一组新数据上表现良好的模型。问题在于您可能没有新数据,但您仍然可以通过像训练-测试-验证分割的过程来体验到这一点。 看到模型在数据集上的表现是不是很有趣?是的!专注工作的最好一面就是看到您的努力以一种良好的方式被充分利用,以创建一个高效的机器学习模型并产生有效的结果。 什么是训练-测试-验证分割? 训练-测试-验证分割在机器学习和数据分析中非常基础,尤其在模型开发过程中。它涉及将数据集分成三个子集:训练集、测试集和验证集。训练-测试分割是一个模型验证过程,可以检查您的模型在新数据集上的表现。 训练-测试-验证分割有助于评估机器学习模型在新的未见数据上的泛化能力。它还可以防止过拟合,即模型在训练数据上表现良好,但无法泛化到新实例。通过使用验证集,实践者可以迭代地调整模型的参数,以在未见数据上获得更好的性能。 数据分割在机器学习中的重要性 数据分割涉及将数据集分成训练、验证和测试子集。数据分割在机器学习中的重要性涵盖以下几个方面: 训练、验证和测试 数据分割将数据集分成三个主要子集:训练集用于训练模型,验证集用于跟踪模型参数并避免过拟合,测试集用于检查模型在新数据上的表现。每个子集都在机器学习模型开发的迭代过程中发挥着独特的作用。 模型开发和调优 在模型开发阶段,训练集对于将算法暴露于数据中的各种模式是必要的。模型从这个子集中学习,调整其参数以最小化错误。验证集在超参数跟踪过程中很重要,有助于优化模型的配置。 过拟合预防 过拟合发生在模型在训练数据上很好地学习到了噪声和无关模式的情况下。验证集充当检查点,可以检测到过拟合的情况。通过评估模型在不同数据集上的性能,您可以调整模型的复杂性、技术或其他超参数,以防止过拟合并增强泛化能力。 性能评估 测试集对于机器学习模型的性能至关重要。在训练和验证后,模型面对测试集,检查真实世界的情况。在测试集上表现良好的模型表明它已成功适应了新的未见数据。这一步骤对于在实际应用中部署模型时获得信心非常重要。 偏差和方差评估 训练-测试-验证分割有助于理解偏差折衷。训练集提供了关于模型偏差的信息,捕捉了内在模式,而验证和测试集有助于评估方差,指示了模型对数据集中波动的敏感性。在偏差和方差之间取得适当的平衡对于实现在不同数据集上良好泛化的模型至关重要。 交叉验证提高稳健性 除了简单的训练-验证-测试分割外,像k折交叉验证这样的技术进一步增强了模型的稳健性。交叉验证涉及将数据集分成k个子集,在k-1个子集上训练模型,并在剩余一个子集上验证。这个过程重复k次,并对结果进行平均。交叉验证更全面地了解模型在数据的不同子集上的性能。 数据分割在模型性能中的重要性 数据分割在模型性能中的重要性包括以下几个方面: 模型泛化能力的评估 模型不仅应该记住训练数据,还应有很好的泛化能力。数据分割可以创建一个测试集,对模型在新数据上的表现进行真实世界的检验。如果没有专门的测试集,当模型过度适应训练数据时,过拟合的风险会增加。数据分割通过评估模型的真实泛化能力来减轻这种风险。 防止过拟合…

Leave a Comment

Shutterstock 推出TRUST:道德人工智能和客户保护的指导框架

“`html 在快节奏的创意资源行业中,先进系统能够自动创建图像和媒体,开启了令人兴奋的可能性,并引发了版权、表达和虚假信息等问题。在这个行业中的重要参与者之一,Shutterstock通过引入TRUST框架来解决这些问题。 在TRUST框架推出之前,创意资源行业面临使用无版权数据训练AI系统所带来的潜在问题。这引发了版权侵权和对为开发这些强大算法做出贡献的创作者是否得到公平补偿等问题。针对这些挑战,Shutterstock推出了TRUST框架,该框架明确了公司将遵循的五项关键道德AI原则。 为了解决无版权数据的问题,TRUST框架的“训练”原则确保只使用正确许可的数据来训练AI系统。这有助于避免版权相关问题,为负责任的AI开发奠定了基础。此外,“版税”原则强调对创作者的公平补偿,Shutterstock承诺通过版税基金向创作者支付使用其作品在训练AI模型中的费用。 表达和多样性是任何AI系统的重要方面。“提升”原则在TRUST框架中促进AI系统的多样性和包容性。这确保生成的内容反映了广泛的观点,并避免在训练数据中加强偏见。 保护客户和控制AI内容风险是TRUST框架所解决的另两个优先事项。“保障”原则旨在通过采取措施防止问题AI内容,保护客户的利益。其中包括对系统输出进行人工审查,以识别和解决潜在问题。 开放性在建立对AI生成内容的信任方面起着重要作用。TRUST框架中的“透明度”原则要求清晰标注AI生成作品,并支持溯源跟踪。这确保用户在遇到由AI创建的内容时得到告知,促进对这些技术使用的透明度。 为了展示其对负责任的AI采用的承诺,Shutterstock还推出了其他措施,包括对版权、商标和其他与AI生成内容相关的潜在风险提供的赔偿。此赔偿为向审核提交其AI生成图像的客户提供了法律保护,确保他们获得与传统授权库照片相同的支持和保障。 总之,Shutterstock的TRUST框架是解决创造性AI技术在创意资源行业中带来的道德挑战的重要进展。通过实施优先考虑负责任训练、公平补偿、多样性、客户保护和透明度的原则,Shutterstock致力于引领该领域中道德AI发展的道路。随着行业的发展,TRUST框架为希望采用道德AI实践的其他公司提供了一个模型。它确保AI技术的承诺能以负责任的方式造福创作者和客户。 文章来源:Shutterstock Introduces TRUST: A Guiding Framework for Ethical AI and Customer Protection(来源:MarkTechPost)。 “`

Leave a Comment

Microsoft的Azure AI模型目录以突破性的人工智能模型扩展

“`html Microsoft已经发布了Azure AI模型目录的重大扩展,其中包括一系列基础和生成型AI模型。这一举措标志着人工智能领域的重大进步,将不同的创新技术汇集在一起。 AI目录的多样增加 Azure AI模型目录现在包括40个新模型,引入了4种新模式,包括文本到图像和图像嵌入功能。主要增加的模型有: 稳定扩散模型:由Stability AI和CompVis开发,这些模型在文本到图像和图像修复任务中表现出色,为创意内容生成提供了稳健且一致的输出。 TII的Falcon模型:Falcon模型具有70亿和400亿参数,针对推断进行了优化,在性能上超过了许多开源模型。 Meta的Code Llama:一系列用于辅助编码任务的生成型文本模型,参数从70亿到340亿不等。 NVIDIA Nemotron:这款来自NVIDIA的80亿参数模型提供了各种功能,包括聊天和问答,与NVIDIA NeMo框架兼容。 Meta的SAM(Segment Anything Model):一种能够从简单的输入提示中创建高质量对象掩码的图像分割工具。 模型即服务(MaaS) 在战略上,微软还引入了模型即服务(MaaS)的概念。该服务将使专业开发人员能够将来自Meta的Llama 2、Cohere的Command、G42的Jais以及Mistral的高级模型作为API端点集成到其应用程序中。这种集成过程简化了开发人员资源供应和托管管理的复杂性。 创新型模型亮点 Jais:G42开发的具有130亿参数的模型,经过了包含1160亿阿拉伯语标记的数据集的训练。Jais是阿拉伯世界在人工智能方面的重要进步。 Mistral:拥有73亿参数的大型语言模型,由于具有分组查询注意力和滑动窗口注意力特征,因此其推断速度更快且响应序列更长。 Phi模型:包括Phi-1-5和Phi-2,这些变压器展示了改进的推理能力和安全措施,适用于从写作到逻辑推理的各个领域的应用。 面向未来的创新…

Leave a Comment

在亚马逊SageMaker JumpStart中使用Llama 2 Chat LLM的最佳提示实践

Llama 2位于人工智能创新的前沿,具备先进的自回归语言模型,基于复杂的变换器架构开发而成它专为商业和研究领域中的各种应用量身定制,主要的语言集中在英语上其模型参数从令人印象深刻的70亿增加到了引人注目的[…]

Leave a Comment

使用预选算法在Amazon SageMaker自动模型调整中实现定制的AutoML作业

AutoML可以让您在机器学习(ML)项目的生命周期初期就能从数据中快速得出一般性见解提前了解哪些预处理技术和算法类型能够提供最佳结果,能够减少开发、训练和部署正确模型所需的时间它在每个模型的开发过程中起着至关重要的作用[…]

Leave a Comment

“NVIDIA 加速为企业定制生成型人工智能模型的开发”

如今,免费的开源大型语言模型(LLMs)的景象就像是一家任君选择的自助餐厅,满足企业的需求。对于开发者来说,这种丰富多样可能会让他们在构建定制的生成型人工智能应用程序时感到不知所措,因为他们需要满足独特的项目和业务需求,包括兼容性、安全性以及用于训练模型的数据。 NVIDIA AI Foundation Models 是一系列精心策划的企业级预训练模型,为开发者在企业应用中引入定制的生成型人工智能提供了快速的起步。 NVIDIA 优化的基础模型加速创新 NVIDIA AI Foundation Models 可以通过简单的用户界面或 API 直接从浏览器进行体验。此外,这些模型可以通过 NVIDIA AI Foundation Endpoints 进行访问,以便在企业应用中测试模型的性能。 可用的模型包括领先的社区模型,如 Llama 2、Stable Diffusion XL…

Leave a Comment

Zero123++:一幅图像到一致多视图扩散基模型

过去几年中,新兴的AI生成模型在性能、效率和生成能力方面取得了快速发展,这些模型利用了大量数据集和2D扩散生成技术如今,生成AI模型非常擅长生成各种形式的2D媒体内容,在某种程度上还能生成3D媒体内容,包括文字、图像、视频等

Leave a Comment

由Adobe提出的AI研究提出了一种大型重建模型(LRM),它可以在5秒内根据单个输入图像预测出物体的3D模型

“`html 许多研究人员设想过一个世界,任何二维图像都可以瞬间转化为三维模型。这个领域的研究主要受到了实现这个长期目标的通用、高效方法的寻求的推动,潜在的应用领域涵盖工业设计、动画、游戏和增强现实/虚拟现实等。 早期的基于学习的方法通常针对特定的类别表现良好,因为在一瞥之间,三维几何的固有模糊性使得先推断整体形状前先使用类别数据。最近的研究受到图像生成的最新发展的启发,如DALL-E和稳定扩散,利用了二维扩散模型令人惊叹的泛化潜力来实现多视图监督。然而,这些方法中的许多都需要仔细的参数调整和正则化,并且它们的输出受到首次使用的预训练二维生成模型的限制。 通过使用大规模重构模型(LRM),来自Adobe研究和澳大利亚国立大学的研究人员可以将单个图像转换为三维。该模型使用一个庞大的基于transformer的编码器-解码器架构,从单个图像中进行数据驱动的三维对象表示学习。当将图像馈入他们的系统时,它输出一个NeRF的三面式表示。具体而言,LRM使用预训练的视觉transformer DINO作为图像编码器生成图像特征,然后学习一个图像到三面式transformer解码器,将二维图像的交叉关注特征投影到三维三面式上,并自我关注地建模了空间结构化的三面式令牌之间的关系。解码器的输出令牌被重新形状和上采样到最终的三面式特征图上。之后,他们可以使用额外的共享多层感知机(MLP)对每个点的三面式特征进行解码,以获取其颜色和密度,并进行体积渲染,从而允许我们从任意视点生成图像。 由于其精心设计的架构,LRM具有高度可扩展和高效的特点。与体积和点云等其他表示相比,三面式NeRF在计算上更友好,使其成为一种简单且可扩展的三维表示。此外,它与图片输入的接近程度优于Shap-E对NeRF模型权重进行令牌化。此外,LRM仅通过最小化新视角下渲染图像与真实图像之间的差异来进行训练,无需过多的三维感知正则化或精细的超参数调整,使得该模型在训练中非常高效且适用于各种多视图图像数据集。 LRM是第一个大规模的三维重建模型,具有超过5亿个可学习参数和训练数据量约一百万个来自各种类别的三维形状和视频;这与更近期的方法相比,后者使用相对较浅的网络和较小的数据集。实验结果表明,LRM可以从真实世界和生成模型的照片中重建高保真度的三维形状。此外,LRM还是一个非常有用的缩小工具。 团队计划将其未来的研究重点放在以下领域: 使用最简单的基于transformer的设计和轻微的正则化来增加模型的大小和训练数据。 将其扩展到三维多模态生成模型。 借助像LRM这样的图像到三维重建模型,可以自动化一些三维设计师的工作。同时,这些技术还有助于提高创意行业的增长和可访问性。 “`

Leave a Comment

3D身体模型现在有声音了:Meta AI推出了一种人工智能模型,可以为完整人体生成准确的3D空间音频

智能系统复制和理解人类行为的不断发展已经在计算机视觉和人工智能(AI)的互补领域取得了重大进展。机器学习模型正获得极大的流行度,弥合了现实和虚拟之间的差距。虽然在计算机视觉领域,3D人体建模受到了广泛关注,但从语音和身体动作中建立起3D空间音频的任务仍然是一个讨论的话题。关注点始终在于人体的视觉保真度。 人类感知是多模式的,它将听觉和视觉线索结合起来来理解环境。为了营造在3D世界中存在和融入感,精确模拟与视觉画面相对应的3D声音是至关重要的。为了应对这些挑战,上海人工智能实验室和Meta Reality Labs Research的研究人员团队引入了一个模型,为整个人体产生准确的3D空间音频表示。 该团队分享了提议的技术使用头戴式麦克风和人体姿态数据来精确合成3D空间音效。案例研究聚焦于将增强现实和虚拟现实(AR/VR)结合在一起的远程呈现场景,用户使用全身化身进行沟通。以头戴麦克风的主观音频数据和用于给化身赋予动画的身体姿势数据作为输入的例子已被用来进行研究。 当前的声音空间化方法假设声源已知且在那里被不受干扰地捕获。所提议的方法通过使用身体姿态数据来训练一个多模态网络,区分各种噪音源并产生精确的空间化信号来解决这些问题。身体周围的声音区域是输出,七个头戴式麦克风的音频和被试的体态构成了输入。 该团队进行了经验评估,证明了当用适当的损失函数进行训练时,该模型能够可靠地生成由身体运动引起的声场。该模型的代码和数据集可在互联网上公开使用,促进了这一领域的开放性、可重复性和进一步的发展。GitHub存储库可以在https://github.com/facebookresearch/SoundingBodies访问。 该团队总结了该工作的主要贡献: 引入了一种独特的技术,使用头戴麦克风和身体姿态为人体呈现出逼真的3D声场。 分享了一项全面的经验评估,强调了体态和精心设计的损失函数的重要性。 该团队分享了他们制作的新数据集,将多视角人体数据与345个麦克风阵列的空间音频录音相结合。

Leave a Comment

“探索DeepMind的GraphCast 机器学习引擎天气预测的一大跃进”

在天气预报技术的重大进展中,Google DeepMind推出了一种具有开创性的机器学习模型——GraphCast。这款AI工具标志着一个重大飞跃,比现有方法提供更准确、更快速的预测,挑战着传统数值天气预报模型的主导地位。 革新天气预报 与耗费能源和成本的超级计算机依赖型数值天气预报模型相比,GraphCast在桌面电脑上运行效率高。这种AI模型利用过去和现在的天气数据,快速预测未来的天气条件。 在气候变化和极端天气事件带来全球挑战的时代,准确的天气预报变得越来越重要。传统的数值天气预报模型虽然准确,但需要大量计算资源来追踪空气、热量和水汽在大气中的运动。 GraphCast相比传统模型的优势 GraphCast是在DeepMind位于伦敦的实验室开发的,它使用1979年至2017年的历史全球天气数据进行训练。它利用这个庞大的数据集来理解温度、湿度、气压和风等各种天气要素之间的相关性。它的预测能力可以提前到10天,预测速度不到一分钟,而ECMWF的数值天气预报系统(HRES)需要几个小时。 值得注意的是,在对地球表面最近的大气层——对流层中,GraphCast在12,000个测量中超过99%的性能优于HRES。它准确预测到地球表面附近的五个天气变量和较高海拔处的六个大气变量。这种优势还延伸到对包括热带气旋和极端温度波动在内的严重天气事件的预测。 比较优势 GraphCast不仅相对传统模型具有优势,也在其他基于AI的方法中脱颖而出。根据华为之前的一项研究,与华为的盘古天气模型相比,GraphCast在99%的天气预报中表现更好。然而,需要注意的是,使用不同的评估指标进行未来评估可能会产生不同的结果。 结论 GraphCast是天气预报领域迈出的一大步,提供了快速准确的预测,同时减少了计算需求。随着技术的发展和克服当前的局限性,GraphCast有望在与天气相关的实际应用中显著促进气象研究和实际决策的进行。预计在两到五年内将其整合到实际应用中,GraphCast为天气预测带来了新的时代,将传统方法与AI的创新能力相结合。

Leave a Comment

使用Amazon Comprehend毒性检测标记有害内容

在线社区正在推动用户参与各个行业,如游戏,社交媒体,电子商务,约会和在线学习这些在线社区的成员信任平台所有者提供一个安全和包容的环境,他们可以自由地消费内容并做出贡献通常会雇用内容审核员来审查用户生成的内容,以确保其安全合规

Leave a Comment