Press "Enter" to skip to content

431 search results for "承诺"

IBM的’类脑’人工智能芯片承诺绿色高效的未来

在一项令人兴奋的进展中,科技巨头IBM推出了一款“类脑”芯片的原型,这可能彻底改变人工智能(AI)领域。随着对高能耗AI系统环境影响的担忧日益增长,这一创新可能是朝着更节能和可持续的AI技术迈出的重要一步。这款开创性芯片从人脑复杂的连接中汲取灵感,有望重新塑造各种平台上的AI系统。 还阅读:IBM和NASA联手创建地球科学GPT:解码地球的奥秘 更环保的AI即将到来 IBM的原型芯片承诺大幅提高AI的能源效率。随着对高能耗AI基础设施所产生的碳排放的担忧不断升级,这款创新芯片带来了一线希望。该芯片的设计灵感来自人脑在实现高性能时消耗最小功率的卓越效率。这一突破可能为不仅先进而且环保意识到的AI技术铺平道路。 还阅读:人工智能技术如何改变回收行业? 模拟人类连接 这个原型芯片的核心是一种革命性的方法:使用被称为记忆电阻器的组件,其工作原理类似于人脑内部的连接。与依赖二进制数据存储(0和1)的传统数字芯片不同,基于记忆电阻器的芯片可以存储一系列值,就像我们的大脑处理信息的复杂方式一样。这种“模拟”方法可能导致更好地模拟人类认知的AI系统。 还阅读:人工智能与人类智能:7个主要差异 利用自然启发的计算 来自萨里大学的Ferrante Neri教授解释说,基于记忆电阻器的方法属于自然启发的计算范畴。这个领域旨在模拟人脑的功能。记忆电阻器“记住”电历史的能力类似于生物系统中突触的行为。相互连接的记忆电阻器可能产生与人脑运作方式非常相似的网络。 面临的挑战和机遇 虽然类脑芯片的前景具有巨大潜力,但专家们敦促谨慎行事。Neri教授指出,实现基于记忆电阻器的计算机是复杂的,其中包括材料成本和制造复杂性等挑战。尽管存在困难,他仍持谨慎乐观态度,暗示类脑芯片的出现可能在不久的将来。 还阅读:Nvidia发布了一款改变游戏规则的AI芯片,以提升生成AI应用程序的速度 AI生态系统的绿色化 IBM的芯片提供了高能效和与现有AI系统的兼容性。这种创新可以延长电池寿命,并为智能手机到汽车等新应用提供支持。此外,如果大规模集成,这些芯片可以显著降低数据中心的能耗和冷却所需的水量。 还阅读:NVIDIA的AI将拯救地球免受气候变化的影响 我们的观点 在全球努力迈向更可持续未来的过程中,IBM的原型芯片的潜力闪耀着光芒。尽管在广泛应用之路上仍面临挑战,但这一创新为可持续和更高效的AI技术奠定了基础。随着持续的研究和发展,可能性令人心动,展示了一个AI和可持续发展和谐共存的未来。

Leave a Comment

人工智能框架在新环境中通过人类引导,承诺更快的机器人学习

在智能家居的未来时代,购买一个机器人来简化家庭任务将不再是罕见的然而,当这些自动化助手无法执行简单的任务时,可能会感到沮丧安迪·彭(Andi Peng)是麻省理工学院电气工程与计算机科学系的一名学者,她和她的团队正在开辟一条道路…

Leave a Comment

2024 年值得关注的前 12 位数据科学领袖

在蓬勃发展的数据科学领域,2024年的到来标志着关键时刻,我们将聚焦于一群杰出人物,他们推动创新,塑造着分析学的未来。《2024年十二位数据科学领袖榜单》作为一个指路明灯,庆祝这些人的卓越专业知识、远见领导力以及在该领域的重要贡献。让我们一起探索这些开创性思想家的故事、项目和有前瞻性的观点,他们承诺将塑造数据科学的发展轨迹。这些杰出领导者不仅是先驱者,更是引领我们进入一个无与伦比的创新和发现时代的先锋。 2024年十二位数据科学领袖榜单 随着我们临近2024年,我们将关注一群具有显著专业知识、领导能力和卓越贡献的人士。《2024年十二位数据科学领袖榜单》旨在承认和关注这些人,将他们视为思想领袖、创新者和预计在未来一年取得重大里程碑的影响者。 随着我们深入了解细节,明显地看到这些人的观点、举措和倡议能够改变我们在解决各个行业面临的复杂挑战时的方法和数据利用。无论是在预测分析方面的进展,还是对伦理人工智能实践的倡导,或者是开发尖端算法,这些名单上的人士都有望在2024年影响数据科学领域。 1. 吴恩达 “如今人工智能的主要挑战在于找到合适的业务背景来适应它。我热爱技术,它为我们提供了许多机会。但是最终,技术需要被融入到业务使用案例中。” 吴恩达博士是一位拥有机器学习(ML)和人工智能(AI)专业知识的英裔美籍计算机科学家。在谈到他对AI发展的贡献时,他是DeepLearning.AI的创始人,Landing AI的创始人兼首席执行官,AI Fund的普通合伙人,并且是斯坦福大学计算机科学系的兼职教授。此外,他曾是Google AI旗下Google Brain深度学习人工智能研究团队的创始领导者。他还曾担任百度的首席科学家,指导了一个由1300人组成的人工智能团队,并发展了公司的全球AI战略。 吴恩达先生负责领导斯坦福大学的大规模在线开放课程(MOOC)的发展。他还创办了Coursera,并为超过10万名学生提供机器学习(ML)课程。作为机器学习和在线教育的先驱者,他拥有卡内基梅隆大学、麻省理工学院和加州大学伯克利分校的学位。此外,他在机器学习、机器人学和相关领域发表了200多篇研究论文,并入选了《时代》杂志评选的全球最具影响力人物100人。 网站:https://www.andrewng.org Twitter:@AndrewYNg Facebook:Andrew Ng、Google Scholar。 2. Andrej Karpathy “我们本应让人工智能做所有工作,而我们玩游戏,但我们在做所有工作,而AI在玩游戏!” Andrej Karpathy是一位来自斯坦福大学的斯洛伐克-加拿大双博士学位获得者,在OреոΑӏ负责构建一种JARVIS。他曾担任特斯拉的人工智能和自动驾驶视觉总监。Karpathy对深度神经网络充满热情。他从多伦多开始,修读计算机科学和物理学的双学位,之后前往哥伦比亚深造。在哥伦比亚,他与Michiel van…

Leave a Comment

全球通用模型:Runway AI研究启动新的长期研究工作

“`html 世界模型是一种旨在构建对环境的内部了解并利用这些知识来预测该空间内未来事件的人工智能系统。研究人员主要在受控环境中测试这些世界模型,如视频游戏或特定任务,例如驾驶。最终目标是雄心勃勃的 – 创建可以处理遇到的各种情况的模型,这些情况在不可预测的现实世界中发生。 早期尝试创建这种系统的一个例子是Gen-2视频生成系统。它就像一个初入行的艺术家,试图制作展示基本物体运动理解的短视频。然而,它在更复杂的任务中有困难,对于涉及快速相机移动或复杂物体行为的情景挣扎不已。这揭示了当前世界模型的局限性,促使研究人员深入研究和改进这些系统。 构建有效的世界模型之路面临着几个挑战。一个关键方面是这些模型需要生成准确一致的环境地图。它不仅仅是识别运动,还要在给定空间内进行导航和互动。此外,这些模型不仅必须理解世界的动态,还必须理解和模拟其居民的行为,包括真实的人类行为。这个多方面的挑战需要不断的研究和创新。 研究人员正在积极努力克服这些挑战,致力于增强世界模型的适应性和能力。就像升级视频游戏中的角色一样 – 这些模型需要在生成可靠的地图和在不同复杂情景中进行导航时进行升级。目标是使它们具备处理现实世界的不可预测性的能力。 为了衡量这些世界模型的有效性,研究人员采用了一些度量标准。这些度量标准衡量了模型生成一致准确地图的能力,其在不同环境中导航的熟练程度以及其对人类行为的逼真模拟。这些可量化的测量方法作为基准,让研究人员评估这些不断发展的世界模型的进展和能力。 总之,开发通用世界模型是一个充满挑战和令人兴奋前景的持续过程。随着研究人员不断完善这些模型,承诺在各种现实情景中进行更好的模拟和预测。这些模型的演变不仅推动了人工智能能力的界限,还有可能深入理解复杂环境并改进人工智能与我们的动态世界的互动。 The post General World Models: Runway AI Research Starting a New Long-Term Research Effort…

Leave a Comment

安全转换与ChatGPT插件的互动指南

介绍 曾经是静态内容的领域,现在通过ChatGPT插件的注入,ChatGPT正在经历一场革命性的转变。这些插件就像是虚拟的钥匙,解锁了数字故事讲述的未知领域,重塑了用户参与度。在本指南中,我们将踏上探索ChatGPT插件无缝整合到博客世界的旅程,揭示它们在培养创造力、建立社区和应对不断发展的领域中的潜力。 学习目标 了解启用和安装ChatGPT插件的步骤,增强语言模型的功能。 了解如何验证ChatGPT插件的激活状态,并监控其性能,以实现无缝的用户体验。 探索将ChatGPT插件集成到应用程序中的简化指南,包括获取API密钥和安装必要的软件包。 检查在医疗、金融和制造业等实际应用中,展示ChatGPT插件对效率和决策的影响。 本文作为 数据科学博文马拉松的一部分发表。 <p进入chatgpt插件的世界,就像为你的对话工具箱增加了个人化的触感一样。这些模块化扩展作为伴侣,让用户能够自定义交互并实现特定的博客目标。这不仅仅是关于生成内容,而是为你的受众创造独特而动态的体验。 ChatGPT插件的变革性作用 <p深入探究chatgpt插件的变革性作用揭示了它们对用户参与度的深远影响。尽管chatgpt以其独立形式提供了令人印象深刻的自然语言处理能力,但插件通过引入专门的功能,提升了用户体验。这些功能包括触发式回复、上下文感知的交互和通过外部api实时检索信息。 <p这个变革性动态标志着从静态对话模型到多功能适应性工具的演变,为用户在与chatgpt交互和利用中开启了新的维度。随着我们深入了解这些插件的具体内容,它们重塑对话人工智能领域的潜力变得越来越明显。 插件影响的导航 <p我们的探索密切研究了这些多功能工具的深远意义和稳定性。我们深入探讨了chatgpt插件的重要性,探索其在塑造和丰富用户交互中的关键作用。 <p本节详细研究了chatgpt插件的稳定性,提供了关于它们在chatgpt框架内的可靠性和稳定性的见解。通过导航这些插件的影响,我们旨在全面了解它们的重要性以及在各种对话场景中的稳定性。 了解限制和技术 <p让我们深入了解实际情况。稳定性和限制性是重要的考虑因素。这些插件在更广泛的chatgpt框架内是如何操作的呢?这是关于理解细微差别、优化体验和做出明智决策的问题。你可以同时使用多少个插件?让我们探索有效自定义的实际考虑因素。 <p引人入胜的是gpt-4对chatgpt插件的影响。作为基础模型的下一个迭代版本,gpt-4的进步对插件的能力和性能产生影响。本研究提供了对chatgpt插件不断发展的领域的一瞥,展示了技术发展如何塑造它们的功能。 <p通过全面了解这些限制和技术细节,用户可以在chatgpt插件的领域中做出明智决策并优化使用。 安全和监控 <p安全至关重要。我们深入研究了与chatgpt插件相关的安全考虑,解决了关注点,并制定了安全交互措施。常见的关于安全的问题以直接的faq形式进行了回答,提供了明确的解释,并建立了对安全使用的信心。 <p以chatgpt插件安全为重点的常见问题解答(faqs)。这些常见问题解答涵盖了用户关于在chatgpt体验中整合插件的安全性和可靠性方面的疑问。这些常见问题解答为寻求关于安全方面的澄清的用户提供了宝贵的资源。 <p这个逐步验证指南赋予用户确认插件功能的能力,确保它们积极地参与到对话中。通过强调安全考虑并提供有效监控工具,本节为用户提供了在chatgpt插件世界中安全而自信地导航所需的知识。 费用、访问和安装 提升您的博客体验需要一定的费用支出。用户友好的逐步安装指南确保了较低的技术门槛,使技术水平有限的用户也能轻松使用。了解财务方面和插件集成的实际步骤,使用户能够做出明智的决策。了解使用ChatGPT插件所涉及的成本是至关重要的。当将这些插件整合到ChatGPT体验中时,用户可以清楚地了解潜在费用。这样的理解有助于与个人需求和预算相匹配选择正确的插件。…

Leave a Comment

六种巧妙运用人工智能工具来管理你忙碌的生活方式

在一个几乎完全由不断进化的技术驱动的时代,很容易觉得自己难以跟上然而,人工智能工具有潜力为您分担些许负担想象一下,利用聪明的技术,可以帮助您管理日程,筛选电子邮件,通过混乱6种巧妙使用人工智能工具来管理您繁忙的生活的方法阅读更多 »

Leave a Comment

2024年您必须探索的10款最佳GPU

简介 在人工智能(AI)、机器学习(ML)和深度学习(DL)的时代,对强大计算资源的需求已经达到了一个高潮。这场数字革命将我们推进到了未知的领域,在这里,数据驱动的洞察力是创新的关键。但要打开这些领域,我们需要与我们的壮志相匹配的工具。 这就是神奇的云GPU世界,我们数字时代的无名英雄。这些通用计算单元,通常简称为GPU,不仅仅是计算资源,它们更是无限动力的引擎。云GPU为用户提供了使用超级计算能力的非凡能力,而无需承担沉重的前期硬件投资负担。 本指南将带你踏上一段激动人心的旅程,探索主要云供应商,揭示它们的优势和隐藏的亮点,让你在AI/ML/DL的道路上变得更强大。 最佳GPU概览 供应商 GPU选项 定价 免费层 独特功能 最佳用途 亚马逊网络服务(AWS) T4,G4ad(Radeon Pro V520) 按需与竞价实例 是(有限制) 多样的GPU选择,广泛的生态系统 大型企业,对工作负载要求高的场景 微软Azure T4,A100,V620,M60,MI25 按使用量付费与预留实例 是(有限制) 高性能N系列GPU AI,机器学习,科学计算…

Leave a Comment

‘长尾巴摇晃着狗尾巴:人工智能个性化艺术的意想不到后果’

“`html Meta最近在生成影片领域展现了Emu,这标志着一个转折点,技术和文化以前所未有的方式相互交汇。 Emu不仅是人工智能在创造能力上的进步,更是生成人工智能领域新时代的灯塔,它标志着我们获得信息和娱乐的潜在革命。 我们正处在生成人工智能革命的临界点上,即将改变出版和娱乐领域的基本结构。语言模型以其非凡的综合和表达信息的能力,承诺打造一座全球无与伦比的图书馆,覆盖多种语言下的各种主题。然而,这些生成信息的准确性至关重要,需要保持警惕的事实核查和审查。 将注意力转向娱乐领域,其影响是深远的。Emu所开辟的道路,生成人工智能能够从根本上改变Netflix和Amazon Prime等平台,实现以前无法想象的电影体验个性化。设想一下未来,通过一系列要点来构成电影的叙事,而算法会据此调整剧情。你的英雄命运,无论是胜利还是失败,由你决定。这不仅仅是关于偏好,而是个性化达到了高峰。我们将很快看到我们决定英雄在结局时是否死去。幸福快乐…只有我意愿为之!然而,这种个性化带来了一个重要的警示。将艺术体验根据个人口味调整的能力,有可能限制我们接触多样化的观点,导致一个过于简化和以回声室为特点的世界。 这种倾向于简化,通常被代表为“用5岁儿童的方式解释”,可能有助于初步理解,但有可能侵蚀我们对复杂问题的充分理解的丰富性和深度。爱因斯坦关于使事情尽可能简单但不过分简单的指导在这里特别适用。它强调了在保持清晰度的同时保留复杂主题的细微差别的重要性。 尽管存在潜在的陷阱,这项技术的魅力是无可否认的。它触动了我们对独特性和认可的深刻渴望,这与可定制产品如NikeId的吸引力相似。然而,危险在于让人工智能加强我们的偏见,并使我们远离具有挑战性和多样性的思想。这与创造力的本质相背离,而创造力在于与广泛的知识接触。 在人工智能领域,特别是在强化学习中,我们训练代理人在探索和利用之间取得平衡,这是我们自己的知识之旅的一种策略。然而,在与信息的互动中,我们经常限制自己只接触与我们现有信念相一致的内容。这种悖论强调了我们在应用人工智能时关键性的疏忽。 当我们站在人工智能重塑我们的世界的潜力的边缘时,我们必须考虑如何利用这个强大的工具。真正的危险不在于人工智能本身,而在于我们与之互动的方式。我们必须将人工智能视为一种促进探索和理解的催化剂,营造一个欢迎复杂性、培养智力好奇心的环境。通过这样做,人工智能能够真正成为一种力量,拓宽我们的视野,丰富集体的人类经验。 本文来源:长尾狗摇头摆尾:人工智能个性化艺术的意外后果 – MarkTechPost “`

Leave a Comment

使用亚马逊床岩和亚马逊转录,利用生成式人工智能生成记录摘要

会议记录是协作的重要组成部分,但往往容易被忽略在主持讨论、仔细倾听和记录笔记之间,关键信息很容易溜走而未被记录下来即使记录了笔记,它们可能会杂乱无章或难以辨认,使其变得毫无用处在本文中,我们将探讨如何使用亚马逊[…]

Leave a Comment

AI在欺诈检测中的应用方式是怎样的?

西部野蛮时代有枪手、抢劫银行和悬赏–而今日数字时代有身份盗窃、信用卡欺诈和退款。 利用金融诈骗赚钱已成为一项数十亿美元的犯罪活动。而诈骗者手中的生成式人工智能只会使这种盈利更加丰厚。 根据《尼尔森报告》,全球信用卡损失预计将在2026年达到430亿美元。 金融诈骗以越来越多的方式进行,比如从暗网窃取被黑客攻击的数据实施信用卡盗窃,利用生成式人工智能进行钓鱼式获取个人信息,并在加密货币、数字钱包和法定货币之间洗钱。还有许多其他金融诈骗计划潜伏在数字黑社会。 为了跟上步伐,金融服务公司正在利用人工智能进行诈骗检测。这是因为许多数字犯罪需要及时阻止,以便消费者和金融公司能够立即停止损失。 那么人工智能如何用于诈骗检测呢? 人工智能用于诈骗检测使用多个机器学习模型来检测客户行为和联系的异常,以及符合欺诈特征的账户和行为模式。 生成式人工智能可以用作诈骗辅助 金融服务中很多内容涉及文本和数字。生成式人工智能和大型语言模型(LLMs)能够学习意义和背景,承诺在各行各业带来颠覆性的能力和生产力水平。金融服务公司可以利用生成式人工智能开发更智能、更有能力的聊天机器人,并改进诈骗检测。 而反派角色可以通过狡猾的生成式人工智能提示来绕过人工智能保障,用于欺诈。而且大型语言模型正在提供类似人类写作的能力,使诈骗分子能够撰写更具上下文相关的电子邮件,而无需拼写错误和语法错误。可以快速创建许多不同版本的钓鱼邮件,使生成式人工智能成为实施欺诈的绝佳副驾驶员。还有许多诸如FraudGPT之类的暗网工具,可以利用生成式人工智能进行网络犯罪。 生成式人工智能也可以用于声音认证安全措施的金融损害。一些银行正在使用声音认证来帮助授权用户。如果攻击者能够获取声音样本,他们可以使用深度伪造技术克隆银行客户的声音,试图突破这些系统。声音数据可以通过试图引诱通话接收者通过声音作出回应的垃圾电话来收集。 聊天机器人诈骗问题如此严重,以至于美国联邦贸易委员会提出了有关使用大型语言模型和其他技术模拟人类行为,用于伪造视频和声音克隆的关注和担忧。 生成式人工智能如何解决滥用和诈骗检测问题? 诈骗审查现在有强大的新工具。处理手动诈骗审查的工作人员可以通过在后端运行基于LLM的助手,利用来自政策文件的信息来加速决策,判断案件是否属于欺诈,从而大大加快处理过程。 大型语言模型被采用来预测客户的下一笔交易,这有助于支付公司预先评估风险并阻止欺诈交易。 生成式人工智能还通过提高准确性、生成报告、减少调查和降低合规风险来帮助打击交易诈骗。 生成合成数据是生成式人工智能用于欺诈预防的另一个重要应用。合成数据可以提高用于训练诈骗检测模型的数据记录数量,增加示例的多样性和复杂性,使人工智能能够识别欺诈者使用的最新技术。 NVIDIA提供了帮助企业采用生成式人工智能构建聊天机器人和虚拟代理的工具,使用了检索增强生成技术。检索增强生成使公司能够利用自然语言提示来访问大量数据集进行信息检索。 利用NVIDIA的人工智能工作流程可以帮助加速构建和部署适用于各种用例的企业级能力,使用基础模型、NVIDIA NeMo框架、NVIDIA Triton推理服务器和GPU加速矢量数据库来部署检索增强生成技术的聊天机器人。 行业专注于安全,以确保生成型人工智能不易被滥用造成伤害。NVIDIA发布了NeMo Guardrails,以帮助确保基于LLMs的智能应用(如OpenAI的ChatGPT)的准确性、适当性、主题相关性和安全性。 该开源软件旨在防止滥用人工智能驱动的应用程序进行欺诈和其他不当使用。 人工智能在识别欺诈方面的好处是什么?…

Leave a Comment

为什么微软的Orca-2 AI模型标志着可持续AI的重要进展?

探索微软Orca-2在可持续智能人工智能领域所取得的突破性进展Orca-2摆脱了大型语言模型(LLMs)的高能耗特性,通过强调智能设计而不是规模,挑战了现状了解这种转变如何打开新的可能性,使先进的人工智能更具包容性、环保责任和影响力探索Orca-2在塑造可持续人工智能未来方面的重要性,将技术进步与环境责任承诺相一致

Leave a Comment

争议环绕:Grok使用OpenAI代码进行训练

埃隆·马斯克(Elon Musk)最新的创业项目是基于生成式人工智能的聊天机器人Grok。然而,该机器人卷入了争议,有指控称它在训练过程中使用了OpenAI的代码。这起争议给埃隆·马斯克、OpenAI和OpenAI的现任首席执行官Sam Altman之间复杂的历史增添了新的层面。 划定的指控 最近的声明暗示Grok可能无意间在OpenAI的代码库上进行了训练。当用户Jax Winterbourne遇到与OpenAI的ChatGPT类似的Grok的不寻常回复时,引发了这种猜测。该用户对xAI可能在Grok的训练中使用了OpenAI的代码表示担忧。 xAI的解释 作为对指控的回应,与xAI有关的Igor Babuschkin澄清了这个问题是由于训练Grok时使用了大量Web数据引起的。Babuschkin解释说,训练过程无意间捕获到了ChatGPT的输出结果。虽然承认这个问题并不常见,但他向用户保证,未来的Grok版本将不会遇到这个问题,并强调他们在Grok的开发过程中未使用任何OpenAI的代码。 埃隆·马斯克的反驳 埃隆·马斯克对Twitter上的指控作出了迅速的回应。马斯克否认了这些指控,表示Grok的回复来自于训练中的广泛数据抓取。以马斯克的特色回应,他反驳道:“嗯,儿子,既然你从这个平台上抓取了所有数据进行训练,那你应该知道。” 对Grok与ChatGPT的近距离观察 对Grok和ChatGPT的比较揭示了它们的独特特性。Grok以其通过X平台实时获取信息的能力脱颖而出,这使其相对于最初缺乏这种功能的ChatGPT具有明显优势。然而,这场争议也引发了关于Grok训练数据来源的质疑。 xAI的合作与未来展望 xAI不仅是埃隆·马斯克的心血结晶,同时也得到了拥有来自Google的DeepMind和微软的经验的团队的支持,它已经扩大了与特斯拉和其他各种公司的合作范围。最近与Oracle达成合同以利用其云技术的揭示更加突显了xAI对推进人工智能能力的承诺。 我们的观点 在这些指控和反驳的背景下,用户必须了解人工智能发展的复杂性。尽管围绕Grok训练数据的争议令人担忧,但它也凸显了在广阔的互联网领域确保数据纯净性所面临的挑战。随着技术的发展,人工智能开发者需要及时解决和纠正这类问题变得至关重要。

Leave a Comment

元AI宣布紫色羊驼,以协助社区通过开放和生成式AI模型进行道德建设

由于自动回归语言建模的数据增加、模型规模和计算能力的成功,会话式AI代理在过去几年中实现了显著的飞跃。聊天机器人通常使用大型语言模型(LLMs),以其众多有用的技能而闻名,包括自然语言处理、推理和工具熟练度。 这些新应用需要经过全面的测试和谨慎的发布,以减少潜在的危险。因此,建议由生成性AI驱动的产品实施防止生成违反政策的高风险内容的保障措施,以及防止对模型进行敌对输入和越狱的尝试。其中包括资源,如Llama 2负责任使用指南。 在寻找控制在线内容的工具时,Perspective API1、OpenAI内容审查API2和Azure内容安全API3都是很好的起点。然而,当将它们用作输入/输出保障措施时,这些在线审查技术在几个方面存在问题。首先,目前无法区分用户和AI代理在他们所带来的危险方面的区别;毕竟,用户要求信息和帮助,而AI代理更有可能提供。此外,用户无法根据新政策更改工具,因为它们都有固定的政策需要执行。第三,无法将它们调整为特定的使用案例,因为每个工具仅提供API访问。最后,所有现有工具都是基于普通的传统Transformer模型。与更强大的LLMs相比,这严重限制了它们的潜力。 新的Meta研究揭示了一种用于输入输出保护的工具,它将会话式AI代理的提示和响应中的潜在危险进行分类。这填补了该领域中将LLMs用作审查基础的一个需求。 他们使用基于分类学的数据来对Llama Guard进行微调,这是一个基于逻辑回归的输入输出保护模型。Llama Guard将相关分类学作为输入来分类羊驼,并应用指令职责。用户可以使用零样本或少样本提示来个性化模型输入,以适应不同的使用案例相应的分类法。在推断时,可以选择几个微调的分类法,并相应地应用Llama Guard。 他们提出了区分LLM输出(AI模型的响应)和人类请求(对LLM的输入)的独特指南。因此,Llama Guard可以捕捉到用户和代理责任之间的语义差异。利用LLM模型遵循指令的能力,他们只需要一个模型就可以完成这个任务。 他们还推出了Purple Llama。将来,它将成为一个综合资源和评估项目,以帮助社区在以开放、生成的AI模型进行伦理建设方面取得成功。网络安全和输入/输出保护工具和评估将是首次发布的一部分,更多的工具将会陆续推出。 他们为业界提供了首个全面的LLM网络安全评估指南。这些指南是与他们的安全专家一起开发的,并基于行业建议和标准(如CWE和MITRE ATT&CK)。在这个首次发布中,他们希望提供资源,以帮助减轻在白宫创建负责任的人工智能的承诺中提到的一些危险,例如: 量化LLM网络安全威胁的度量标准。 评估不安全代码提案的工具。 评估使LLM编写恶意代码或进行网络攻击更加困难的工具。 他们预计这些工具将通过减少提出不安全的AI生成代码的频率来减少LLM对网络攻击者的效用。他们的研究发现,当LLM建议不安全代码或配合恶意请求时,将会带来严重的网络安全问题。 在应用特定内容限制方面,所有LLM的输入和输出都应根据Llama 2负责任使用指南进行审查和过滤。 该模型使用公开可用数据集的组合进行训练,以检测可能有害或侵权信息的常见类别,这些信息可能与各种开发者使用案例相关。通过公开可用其模型权重,他们消除了实践者和研究人员依赖带宽有限的昂贵API的需求。这为进一步的实验和根据个人需求调整Llama Guard的能力打开了大门。

Leave a Comment

EU对AI监管的初步协议:对ChatGPT的影响

欧洲联盟最近达成了一项初步协议,概述了对先进人工智能模型进行监管的法规,特别强调了广为认可的ChatGPT。这标志着建立全球首个全面人工智能监管的重要进展。 人工智能系统的透明度 为了增强透明度,通用人工智能系统的开发者,包括令人敬畏的ChatGPT,必须遵守基本要求。这些要求包括实施可接受使用政策,及时更新模型训练方法的信息,并提供详细的培训数据摘要。此外,还必须承诺尊重版权法。 对具有“系统风险”的模型的其他规定 被确定为具有“系统风险”的模型面临更严格的监管。这种风险的确定取决于在模型训练过程中使用的计算能力。值得注意的是,任何超过每秒10万亿次操作的模型,其中包括OpenAI的GPT-4,都属于此类别。欧盟的执行机构有权根据多种标准(如数据集大小、注册商业用户和最终用户)指定其他模型。 还有:惊人的消息:ChatGPT易受数据泄露攻击 对高度可行模型的行为准则 高度可行模型,包括ChatGPT,在欧洲委员会制定更全面和持久的控制措施之前,需要采取行为准则。如果不合规,就需要证明遵守人工智能法。需要注意的是,虽然开源模型可以豁免某些控制,但如果被认定存在系统风险,它们也不会免责。 对模型的严格义务 纳入监管框架的模型必须报告其能源消耗,进行红队或对抗性测试,评估和减轻潜在的系统风险,并报告任何事件。此外,它们还必须确保实施强大的网络安全控制、披露用于微调模型的信息,并在开发时遵守更节能的标准。 批准过程和关注点 欧洲议会和欧盟的27个成员国尚未批准这项初步协议。与此同时,法国和德国等国家提出了关切。这些担忧围绕着对欧洲人工智能竞争对手的压制风险,例如Mistral AI和Aleph Alpha等公司。法国和德国特别担心过多的监管会阻碍全球人工智能领域的创新和竞争力。 还有:欧洲人工智能巨头MISTRAL AI筹集了3.85亿欧元 我们的观点 在应对人工智能监管的复杂领域中,欧盟的做法寻求在促进创新和防范潜在风险之间取得微妙的平衡。随着提议等待批准,一些成员国提出了担忧。这凸显了在AI领域的监管程度上达成共识的挑战。在制定人工智能治理未来时,平衡AI开发者的愿望与社会安全的需要仍然是一项关键任务。

Leave a Comment

Can't find what you're looking for? Try refining your search: