Press "Enter" to skip to content

7458 search results for "t"

将这篇文章翻译成中文 ‘你可以加入听力播放列表的8个顶级人工智能播客

在快速发展的机器学习和人工智能领域,对于专业人士和爱好者来说,保持对现代发展和见解的更新非常重要。播客为您提供了一个方便和易于获取的途径,丰富您的知识并获取专家的观点。在这里,我们将介绍机器学习和人工智能领域中排名前列的8个播客节目,值得您在听听单中给予重要位置。 Lex Fridman主持的《人工智能》 Lex Fridman主持的《人工智能》播客在AI领域引人注目,是任何对复杂的AI世界感到好奇的个人必听的播客节目。Lex Fridman是一名AI研究员和工程师,他的播客以与该领域最聪明的人之一进行的引人入胜和高强度的对话而闻名。 Fridman的播客超越表面,深入探讨了AI的复杂性、具有挑战性的情况以及其对社会的潜在影响。所涵盖的话题的多样性是该播客强度的证明;它涵盖了包括AI伦理、机器学习突破、机器人技术进步以及AI对不同行业的影响等领域。 听众可以期待从AI专家、研究人员和有远见的人士的思想和经验中获得见解,他们处于塑造AI领域前沿的位置。无论您是一名希望了解最新趋势的AI专业人士,还是一位热衷于理解AI细微差别的爱好者,《人工智能》播客通过与引人思考的讨论互动,为您提供了一个宝贵的平台,扩展您对这个快速发展领域的知识。通过对技术细节和AI对社会的广泛影响的强调,这个播客承诺为来自各种背景的听众提供对AI领域的全面探索。 在Spotify、Apple Music、Youtube和Google Podcast上找到这个AI播客。 TWiML & AI – 本周机器学习与人工智能 TWiML & AI – 本周机器学习与人工智能是机器学习和人工智能领域的知识和洞察的指南。这个AI播客以其信息丰富和全面的方法而闻名,为听众深入探索多方面的AI世界。 由Sam Charrington主持的TWiML & AI为专家、研究人员和从业者提供了一个平台,分享他们对该领域最新趋势的观点。该播客的优势在于它能够深入探讨各种主题。从讨论前沿研究突破到剖析现实世界应用和行业趋势,TWiML…

Leave a Comment

评估人工智能中的意识潜力:基于神经科学理论的指标属性的科学探索

AI系统有意识的可能性是当前热门话题。顶尖研究人员从与人类意识相关的大脑过程中获得灵感,以提升AI的能力。AI的进展惊人迅速。同时,开发能够准确模仿人类语音的AI系统可能会增加用户对有意识的AI系统的感知。他们在这项研究中主张,评估AI的意识最好的方法是参考神经科学对意识的理论。他们讨论了这类已知的理论,并研究了它们对AI的影响。 他们认为以下是他们在这份报告中的主要贡献: 1. 证明评估AI的意识在科学上是可行的,因为意识可以科学地进行研究,而且这项研究的结果适用于AI。 2. 他们提供了初步证据,表明许多指标性质可以使用当前技术在AI系统中实现,尽管目前没有系统被认为是意识的强有力候选者。 3. 以科学理论为基础,概述了评估AI中的意识的评分表。他们预期随着研究的进展,他们将包括的指标特征清单可能会发生变化,因此提供的评分表是初步的。 他们使用了三个基本原则来研究AI中的意识。作为工作假设,他们首先接受了计算功能主义的理论,该理论认为适当的计算既是理解的必要条件,也是充分条件。尽管有争议,但这一观点是现代哲学思考的支柱。出于实用原因,他们采纳了这一理论,因为与其他观点不同,它意味着AI的意识在理论上是可行的,研究AI系统的内部运作对于确定AI系统是否有可能有意识是重要的。这意味着思考计算功能主义对AI意识的影响是有用的。其次,他们认为基于神经科学的意识理论具有实证的有效性,并可用于评估人工智能中的意识。 计算功能主义暗示在AI中,类似的功能可能足以实现意识。这些理论试图找到在人类中既是必要条件又是充分条件的意识功能。第三,他们认为在AI中研究意识的最佳策略是理论为基础的策略。这意味着确定AI系统是否执行与科学理论中与意识相关的任务,并根据以下因素评估这些理论的可信度: 功能的相似性。 支持理论的证据的强度。 对计算功能主义的信念。 与此策略相比,评估行为意识的替代方法是进行行为测试。然而,由于AI系统可以被训练以模仿人类行为而在运作方式上有所不同,因此这种策略可能更可靠。 在这个背景下,他们不支持任何特定的理论,因为在意识科学中有几个假设是活跃的竞争者。相反,他们从对意识理论的研究中收集了一份指标清单。每个指标质量都是意识所必需的,并且一些子集是足够的,这是几个理论声称的。然而,他们认为,如果AI系统具有更多的指标特征,它们更有可能是有意识的。人们应该评估当前或计划中的AI系统是否具备或将具备这些特征,以确定它是否是意识的严肃竞争者。他们讨论了几个科学理论,如计算的高阶理论、全局工作空间理论和循环处理理论。由于集成信息理论与计算功能主义不兼容,他们不予考虑。 此外,他们还考虑了代理和具身化作为指标的概念。然而,重要的是要理解它们所暗示的计算方面。他们讨论了Perceiver架构和基于Transformer的大型语言模型,并根据全局工作空间的思想对其进行评估。他们还研究了一种通过管理虚拟鼠标身体来完成任务的系统(名为PaLM-E,即“具身化多模态语言模型”)和DeepMind的自适应代理(一种在3D虚拟环境中工作的强化学习代理)。他们使用这三个系统作为案例研究,以展示与代理和具身化相关的指标特征。 查看预印本论文。这项研究的所有荣誉归功于该项目的研究人员。此外,不要忘记加入我们的29k+ ML SubReddit、40k+ Facebook社区、Discord频道和电子邮件通讯,在那里我们分享最新的AI研究动态、有趣的AI项目等等。 Hostinger AI 网站构建器:用户友好的拖放式编辑器。立即试用(赞助) 1/8 非常兴奋地宣布我们的新预印版,从神经科学领域的领先理论的角度考虑了人工智能中的意识问题。这是一个大型的跨学科合作项目,涉及哲学、神经科学和人工智能的人员!https://t.co/rLm78YNfJk…

Leave a Comment

苹果研究人员提出了一种从姿势图像生成详细的3D重建的端到端网络

你玩过GTA-5吗?人们对游戏中的3D图形赞叹不已。与平面上的2D图形不同,3D图形模拟深度和透视,使得视觉更加真实和沉浸。这些图形在各个领域广泛应用,包括视频游戏、电影制作、建筑可视化、医学成像、虚拟现实等等。 传统的创建3D模型的方法是通过估计输入图像的深度图,然后将其融合以创建3D模型。苹果和加州大学圣巴巴拉分校的研究人员创建了一个直接推断场景级3D几何的方法,使用了深度神经网络,不涉及传统的测试时间优化。 传统方法在深度图不匹配的区域(如透明或低纹理表面)导致几何缺失或伪影。研究人员的方法将图像映射到体素网格上,并使用3D卷积神经网络直接预测场景的截断有符号距离函数(TSDF)。 卷积神经网络(CNN)是一种专门设计用于处理和分析视觉数据(尤其是图像和视频)的人工神经网络。使用这种技术的优势在于CNN可以学习和生成平滑、一致的表面,填补低纹理或透明区域的空白。 研究人员在训练期间使用三线性插值对地面真实TSDF进行采样,以与模型的体素网格对齐。这种三线性插值采样会在训练过程中对细节添加随机噪声。为了克服这个问题,他们只考虑了在地面真实TSDF完全已知的确切点处的有监督预测,并且这种方法改善了结果10%。 体素是体素像素的缩写。它代表网格内的三维空间中的一个点,类似于像素代表二维图像中的一个点。现有的体素大小为4cm或更大,这不足以解决自然图像中可见的几何细节,并且增加体素分辨率是昂贵的。他们通过使用CNN网格特征,直接将图像特征投影到查询点来解决这个问题。 他们需要使用密集的反投影来从每个体素中的每个输入图像中进行采样。然而,这会导致反投影体积模糊,他们通过使用初始的多视角立体深度估计来解决这个问题,进一步增强了特征体积。 研究人员声称他们的方法是使网络学习细节并允许自由选择输出分辨率的关键,而无需额外的训练或3D卷积层。

Leave a Comment

“遇见Cursive:一种通用而直观的与LLM互动的人工智能框架”

在与大型语言模型(LLM)进行接口交互的领域中,开发人员常常面临一个共同的困境。一方面,存在复杂而臃肿的框架,而另一方面,要从零开始构建大量抽象的前景。在简单性、调试易用性和可扩展性之间取得平衡依然是一个艰巨的挑战。 构建者和与LLM相关的开发人员传统上面临着有关框架的问题。复杂和功能繁重的框架位于光谱的一端,往往导致代码混乱和难以控制。另一方面,缺乏适当的工具和抽象使得开发人员需要投入大量时间来构建他们的解决方案,从而阻碍了效率和生产力。这些缺点凸显了需要一个提供简化体验而又不牺牲功能的框架的需求。 为了直面这一挑战,Cursive框架成为一个有前景的解决方案。Cursive试图通过提升与LLM交互时的开发者体验(DX)来重新定义这一领域的格局。它的目标是使与LLM的交互过程直观、愉快,并摆脱不必要的复杂性。此外,Cursive采取了一个非常出色的步骤,确保其适用于包括浏览器、Node.js、Cloudflare Workers、Deno、Bun等各种JavaScript环境。 Cursive的核心承诺在于简化开发人员与LLM之间的交互,为他们提供清晰而愉快的体验。一个值得注意的特点是简化了向模型提问和接收答案的方法。开发人员可以轻松地进行模型查询,并通过最少的代码获得响应,提高工作流程的效率。此外,与模型保持对话线程非常简单,实现了无缝的双向交互。 Cursive还革新了在LLM上下文中调用函数的方式。传统的函数调用经常导致不连贯的代码,难以理解。然而,Cursive引入了一种函数调用方法,保持整个过程的连贯性。函数定义的创建、执行和结果检索无缝集成,提高了代码的可读性和可维护性。 Cursive的影响通过反映增强的DX和改进的开发工作流程的有形指标来衡量。减少了与模型交互所需的代码行数,直观的函数调用以及连贯的对话处理都有助于提高开发者的生产力。该框架能够估算不同模型的成本和使用情况,并处理模型之间的上下文切换,带来了以前缺乏的可靠性和可观察性。 Cursive的引入在LLM交互领域迈出了重要的一步。通过优先考虑开发者体验,该框架解决了现有的挑战,并为更高效、简化和愉快的开发流程铺平了道路。作为一种旨在改变构建者与LLM交互方式的工具,Cursive具有重新定义最佳实践、鼓励创新并提高开发领域生产力的潜力。其在各种JavaScript环境中的多样性进一步巩固了它作为一个具有颠覆性解决方案的地位。

Leave a Comment

企业如何提高多语言产品分类器的准确性?这篇人工智能论文提出了LAMM:一种针对训练数据有限语言的主动学习方法,旨在增强分类准确性

通过利用不同语言共享的表示形式,跨语言学习已被认为可以提高自然语言处理模型在数据有限的低资源语言(LRL)上的准确性。然而,高资源语言(HRL)和低资源语言(LRL)的准确性存在显著差异,这与LRL的预训练数据相对稀缺有关,即使对于最先进的模型也是如此。在专业环境中,常常会对语言级准确性设定目标。这时候,像神经机器翻译、音译和类似数据上的标签传播等技术非常有用,因为它们可以用于合成增强现有训练数据。 这些方法可以用来增加训练数据的数量和质量,而无需采用代价过高的手动注释。由于机器翻译的局限性,即使翻译通常会提高LRL的准确性,但它可能需要赶上商业目标。 亚马逊的研究团队提出了一种通过使用主动学习有选择地收集标记数据来提高低资源语言(LRL)准确性的方法。虽然以前已经研究过多语言数据的主动学习,但大部分研究集中在为单一语言训练模型上。为此,他们正在努力完善一种能够有效地在语言之间进行翻译的单一模型。这种方法被称为语言感知主动学习多语言模型(LAMM),类似于已经显示主动学习可以在使用单一模型的情况下提高模型在各种语言上的性能的工作。然而,这种方法不提供专门针对和提高LRL准确性的手段。由于他们坚持为已经超过准确性目标的语言获取标签,今天最先进的主动学习算法在满足语言级目标至关重要的情况下浪费了手动注释。为了提高LRL的准确性而不对HRL的性能产生负面影响,他们提出了一种基于主动学习的策略来有策略地收集标记数据。建议的策略LAMM可以增加在所有相关语言中实现准确性目标的可能性。 研究人员将LAMM作为具有多个目标的MOP来构建。其目标是选择以下未标记数据的示例: 不确定的(模型对结果没有信心) 来自语言家族,分类器的性能可能优于目标。 亚马逊的研究人员使用典型的基于池的主动学习设置,将LAMM的性能与两个基准进行比较,使用四个多语言分类数据集。其中两个示例是亚马逊评论和MLDoc。亚马逊内部使用了两个多语言产品分类数据集。以下是标准的流程: 最低置信度(LC)收集可能具有最大熵不确定性的样本。 均匀分配(EC),为了填充每种语言的注释预算,收集具有高熵的样本,并将注释预算在语言之间均匀分配。 他们发现LAMM在所有LRL上的表现优于竞争对手,而在HRL上略微不如。使用LAMM时,HRL标签的百分比减少了62.1%,而与LC相比,AUC的准确性仅降低了1.2%。使用四个不同的产品分类数据集,其中两个是公开可用的,另外两个是亚马逊内部使用的专有数据集,他们展示了相对于强大基线,LAMM可以将LRL的性能增加4-11%。

Leave a Comment

Can't find what you're looking for? Try refining your search: