Press "Enter" to skip to content

Tag: Responsible AI

负责任的人工智能:人工智能监督员在对抗选举虚假信息中的关键作用

在民主进程中,我们需要全面了解选举虚假信息的问题选举虚假信息涉及有意散布虚假信息以操纵公众舆论和破坏选举的诚信,直接威胁到民主基本原则回顾历史,我们可以看到选举干预现象日益增多

Leave a Comment

随着生成式人工智能的突破,现在是应对负责任人工智能的时候了

在2022年,公司平均每个公司已有3.8个AI模型正在生产中今天,10家公司中有7家正在尝试生成AI,这意味着未来几年将有更多的AI模型投入生产因此,关于负责任的AI的行业讨论变得更加紧迫好消息是[…]

Leave a Comment

印度总理莫迪关于人工智能监管的愿景:B20峰会2023

随着2023年B20峰会印度在德里落幕,印度总理纳伦德拉·莫迪的话语回响不绝。莫迪在与商业领袖的集会上直言不讳。他强调了印度在塑造全球供应链方面的角色,提倡客户关怀政策,并支持绿色信贷方法。然而,这还不是全部。在他的讲话中,他将聚光灯投向了技术的前沿:人工智能(AI)和加密货币。让我们深入了解莫迪总理关于印度人工智能发展和监管的见解。 另请阅读:《印度在所有OECD和G20国家中在人工智能技能和人才方面排名第一》 历史性的礼物:互信成为中心舞台 莫迪总理强调了印度向世界赠送的历史性礼物:互信。他强调了印度所编织的信任传统,并呼吁商业领袖与人工智能和加密货币正在重塑的勇敢新世界进行接触。 另请阅读:《OpenAI、谷歌、微软和Anthropic联合推动安全人工智能》 从进化到革命:莫迪总理呼吁推行道德人工智能 随着G20峰会临近,莫迪总理呼吁建立一个全球框架,推动“道德”人工智能(AI)的发展,这是一次具有重大意义的举措。这是朝着在正在进行的人工智能和加密货币监管辩论中发挥领导作用迈出的大胆步伐。这一转变表明印度从对人工智能监管的被动立场转变为根据“基于风险、用户伤害”的方法塑造监管规定的积极角色。 另请阅读:《管理道德人工智能:规则和法规防止不道德人工智能》 监管之路:范式转变 变革之风带来了印度在人工智能监管方面的范式转变。一个微弱的呼声已经变成了行动,这可以从印度最高电信监管机构印度电信监管局发布的一份咨询文件得到证明,该文件提出了一个“基于风险的框架”来监管人工智能。该文件还建议通过国际合作建立一个全球机构,负责“负责任地使用”人工智能。 另请阅读:《INDIAai和Meta携手合作:为人工智能创新和合作铺平道路》 全球飞跃:印度对负责任人工智能的立场 印度在B20峰会上对“道德”人工智能的呼吁在全球范围内产生共鸣。它建议建立一个监管机构,监督人工智能的负责任使用,类似于核不扩散的国际机构。这一立场与OpenAI创始人山姆·奥尔特曼关于国际人工智能监管的愿景一致,强调了全球趋同的必要性。 另请阅读:《山姆·奥尔特曼与纳伦德拉·莫迪总理的高风险会晤:描绘印度的人工智能未来》 微软的蓝图:洞察人工智能治理 科技巨头微软已加入人工智能治理对话,提出了《治理人工智能:印度蓝图》。这份蓝图提出了一个以安全为重点的方法,概述了在获得许可的人工智能数据中心部署,并在部署后进行持续监控和保护。 另请阅读: 印度的变革之旅:揭示的机遇 在这些发展中,印度站在技术变革的门槛上,准备利用创新推动经济增长。该国的政策正在适应解决与人工智能相关的隐私问题、系统偏见和知识产权侵权问题。 另请阅读:《AWS和Accel推出“ML Elevate 2023”以推动印度人工智能创业生态系统》 全球局势:多样化的人工智能监管方法 随着人工智能浪潮席卷全球,各国采取了不同的监管方法。欧盟的人工智能法案提出了一种基于侵略性和风险的多层次方法,而英国则采取了更加友好创新的立场。 我们的观点…

Leave a Comment

朱丽叶·鲍威尔(Juliette Powell)和阿特·克莱纳(Art Kleiner)是《人工智能困境—访谈系列》的作者

《AI困境》一书由朱丽叶·鲍威尔(Juliette Powell)和阿特·克莱纳(Art Kleiner)共同撰写朱丽叶·鲍威尔是一位作家、电视节目制作人,在她的名下有9000个直播节目,同时也是一位技术专家和社会学家她还是彭博电视台/商业新闻网络的评论员,并在由经济学家和国际金融公司组织的会议上发表演讲[…]

Leave a Comment

利用社会背景知识促进人工智能的负责任应用

由Google研究的技术项目经理,社会背景理解工具和解决方案(SCOUTS)主管Donald Martin, Jr.发布 与人工智能相关的产品和技术是在社会背景下构建和部署的:即社会、文化、历史、政治和经济环境的动态和复杂的集合。因为社会背景本质上是动态、复杂、非线性、有争议、主观和高度定性的,所以将其转化为定量表示、方法和实践是具有挑战性的,而标准机器学习(ML)方法和负责任的人工智能产品开发实践则占据主导地位。 AI产品开发的第一个阶段是问题理解,而这个阶段对问题的理解(例如,提高癌症筛查的可用性和准确性)对于ML系统的解决以及许多其他下游决策(例如数据集和ML架构选择)有着巨大的影响。当产品将要操作的社会背景没有被充分表述出来以产生强大的问题理解时,产生的ML解决方案可能脆弱甚至传播不公平的偏见。 当AI产品开发人员缺乏在开发过程中有效理解和考虑社会背景所需的知识和工具时,他们往往会将其抽象化。这种抽象化使他们对他们试图解决的问题具有浅显的定量理解,而产品用户和社会利益相关者——他们与这些问题密切相关,并嵌入相关的社会背景中——往往对这些问题有深入的定性理解。这种定性-定量分歧的方式,将产品用户和社会与开发人员分开对待复杂问题的理解,我们称之为问题理解鸿沟。 这个鸿沟在现实世界中产生了影响:例如,它是一种根本原因,导致了一个广泛使用的医疗保健算法中发现的种族偏见,该算法旨在解决选择具有最复杂医疗需求的患者进入特殊计划的问题。对算法将要操作的社会背景的不完全理解,导致系统设计者形成了关于关键问题因素的错误和过度简化的因果理论。关键的社会结构因素,包括医疗保健的缺乏、对医疗保健系统的不信任以及由于人为偏见而导致的诊断不足,被忽略,而医疗保健支出被强调为复杂健康需求的预测因素。 为了负责地弥合问题理解鸿沟,AI产品开发人员需要工具,使他们能够轻松获得社区经过验证的、结构化的关于复杂社会问题的社会背景知识——从问题理解开始,但在整个产品开发生命周期中都要使用。为此,Google研究内负责AI问题理解和以人为中心的技术(RAI-HCT)团队的一部分的社会背景理解工具和解决方案(SCOUTS)是一个专门的研究团队,致力于“为人们提供可扩展的、可靠的社会背景知识,以实现负责任、强大的AI并解决世界上最复杂的社会问题。”SCOUTS的动力来自于表述社会背景的重大挑战,并进行创新的基础和应用研究,以产生结构化的社会背景知识,并将其整合到与AI相关的产品开发生命周期的所有阶段。去年,我们宣布,Google的孵化器Jigsaw利用我们的结构化社会背景知识方法在模型开发的数据准备和评估阶段扩大了其广泛使用的Perspective API毒性分类器的偏见缓解。今后,SCOUTS的研究议程将重点放在与AI相关的产品开发的问题理解阶段,目标是弥合问题理解鸿沟。 弥合AI问题理解鸿沟 弥合AI问题理解鸿沟需要两个关键要素:1) 用于组织结构化社会背景知识的参考框架;2) 用于征集社区专家关于复杂问题的参与式、非剥夺性方法,并将其表示为结构化知识。SCOUTS在这两个领域都发布了创新研究。 问题理解鸿沟的示意图。 社会背景参考框架 产生结构化知识的基本要素是用于创建组织结构的分类法。SCOUTS与其他RAI-HCT团队(TasC、Impact Lab)、Google DeepMind和外部系统动力学专家合作,共同开发了一个用于社会背景的分类参考框架。为了应对社会背景的复杂、动态和适应性特征,我们利用复杂自适应系统(CAS)理论提出了一个高层次的分类模型,用于组织社会背景知识。该模型强调了社会背景的三个关键要素和将它们联系在一起的动态反馈循环:代理、观念和构件。 代理:可以是个人或机构。 观念:限制和推动代理行为的先入之见,包括信念、价值观、刻板印象和偏见。一个基本观念的例子是“所有篮球运动员身高超过6英尺”。这种限定性的假设可能导致无法识别身材较小的篮球运动员。 构件:代理行为会产生许多种类的构件,包括语言、数据、技术、社会问题和产品。 这些实体之间的关系是动态且复杂的。我们的工作假设规范是社会背景中最关键的元素,我们强调人们感知到的问题和他们对这些问题存在的原因的因果理论,这些理论对于理解社会背景至关重要。例如,在前面描述的医疗算法中存在的种族偏见的情况下,设计师持有的因果理论是复杂的健康问题会导致所有人口群体的医疗支出增加。这个错误的理论直接导致了选择医疗支出作为模型预测复杂医疗需求的代理变量,进而导致模型对于黑人患者存在偏见,因为由于社会因素,比如医疗资源不足和偏见导致的诊断不足,黑人患者在有复杂医疗需求时并不总是花费更多的医疗费用。一个关键的未解决问题是,我们如何在道德和公平的前提下从最贴近不平等问题的人和社区中获取因果理论,并将它们转化为有用的结构化知识? 社会背景参考框架的示意版本。 社会背景参考框架的分类版本。 与社区合作,促进人工智能在医疗保健领域的负责任应用…

Leave a Comment

走在AI信任曲线的前沿:揭秘开源的负责任AI工具包

在如今迅速发展的技术环境中,人工智能(AI)已经成为影响我们生活许多方面的强大工具。然而,随着AI的进步,人们对其道德使用的担忧也在增加。对AI的滥用可能导致偏见结果并破坏公众的信任。为了解决这些问题,负责任的AI实践正在获得关注,并且行业领导者正在带头开发开源的负责任AI工具包。让我们探讨这些工具包及其在促进AI应用的公平性、透明度和问责制方面的重要性。 AI实施中的信任赤字 埃森哲(Accenture)2022年的技术展望研究揭示了一个令人震惊的统计数据:全球只有35%的消费者信任组织如何实施AI。此外,77%的人认为组织应对任何AI滥用负责。这些发现突显了优先考虑公平性和问责制的负责任AI实践的紧迫性。 还要阅读:欧盟对AI规则采取行动 负责任AI实践成为主流 承认负责任AI的重要性,大型科技公司已经建立了专门的内部团队和部门来负责负责任AI实践。Finarkein Analytics的联合创始人兼首席执行官Nikhil Kurhe强调,负责任AI实践正在成为主流,导致更广泛地采用道德AI原则。 负责任AI工具包的力量 负责任AI工具包确保以公平、稳健和透明的方式开发AI应用和系统。通过集成这些工具包,AI开发人员可以创建无偏见和负责任的模型,增强用户之间的信任。 TensorFlow Federated:赋能分散式机器学习 TensorFlow Federated(TFF)是一个面向分散式机器学习的开源框架。它使得可以在多个客户端的本地训练数据上训练共享的全局模型。TFF允许开发人员探索新颖的算法,并在其模型上模拟分散式学习。 还要阅读:如何用TensorFlow构建负责任AI? TensorFlow Model Remediation:解决性能偏差问题 Model Remediation库提供了减少或消除模型创建和训练过程中的性能偏差对用户造成伤害的解决方案。该工具包使机器学习从业者能够创建准确且具有社会责任的模型。 TensorFlow Privacy:保护个人数据 TensorFlow Privacy(TF Privacy)由Google…

Leave a Comment

大规模数据的差分隐私聚类

由Google研究的Graph Mining团队的Vincent Cohen-Addad和Alessandro Epasto发布 聚类是无监督机器学习(ML)中的一个核心问题,广泛应用于行业和学术研究的多个领域。在其核心,聚类包括以下问题:给定一组数据元素,目标是将数据元素分成组,使得相似的对象在同一组中,而不相似的对象在不同的组中。60多年来,这个问题在数学、计算机科学、运筹学和统计学中以其无数的变体进行了研究。聚类的两种常见形式是度量聚类,其中元素是度量空间中的点,例如k-means问题,和图聚类,其中元素是图的节点,其边表示它们之间的相似性。 在k-means聚类问题中,我们给出了度量空间中的一组点,目标是识别k个代表点,称为中心(在此处表示为三角形),以最小化每个点到其最近中心的平方距离之和。来源,版权:CC-BY-SA-4.0 尽管算法设计方面的聚类文献很广泛,但很少有实际工作专注于在聚类过程中严格保护用户的隐私。当聚类应用于个人数据(例如用户所做的查询)时,有必要考虑在实际系统中使用聚类解决方案的隐私影响以及输出解决方案揭示有关输入数据的信息量。 为了在严格意义上保护隐私,一个解决方案是开发差分隐私(DP)聚类算法。这些算法确保聚类的输出不会揭示有关特定数据元素(例如,用户是否进行了给定查询)或有关输入图中的敏感数据(例如,社交网络中的关系)的私有信息。鉴于隐私保护在无监督机器学习中的重要性,在最近几年中,Google一直在研究不同ially private metric或graph clustering和各种情境下的差分隐私,例如热图或设计DP算法的工具。 今天我们很高兴地宣布两个重要的更新:1)一种新的差分隐私层次图聚类算法,我们将在ICML 2023上展示,2)可扩展的差分隐私k-means算法代码的开源发布。此代码使用分布式计算将差分隐私k-means聚类应用于大规模数据集。在这里,我们还将讨论我们在健康领域最近推出的用于向公共卫生当局提供信息的聚类技术的工作。 差分隐私层次聚类 层次聚类是一种流行的聚类方法,它包括将数据集递归地分成越来越细的群集。生物学中著名的层次聚类的例子是分类系统,其中地球上的所有生命都被分成越来越细的组(例如,王国、门、纲、目等)。层次聚类算法接收表示实体相似性的图作为输入,并以无监督的方式学习这种递归分区。然而,在我们的研究中,尚不知道任何算法可以计算带有边缘隐私的图的层次聚类,即保护顶点交互的隐私。 在“带有可证明逼近保证的差分隐私层次聚类”中,我们考虑在DP上下文中可以对问题进行多好逼近,并对隐私保证建立了坚实的上限和下限。我们设计了一种多项式运行时间的逼近算法(其类型的第一个算法),它具有随节点数n(约为n 2.5 )缩放的附加误差和O(log ½ n)的乘法逼近,其中乘法误差与非私有设置相同。我们进一步为任何私有算法提供了一个新的附加误差下限(约为n 2 ),并提供了一个与此下限相匹配的指数时间算法。此外,我们的论文包括一种超越最坏情况的分析,重点关注分层随机块模型,这是一种展现自然分层聚类结构的标准随机图模型,并引入了一种私有算法,其返回与最优解相比可以忽略不计的附加成本,这再次匹配非私有状态下的最先进方法。我们相信这项工作扩展了图数据上隐私保护算法的理解,并将使这些设置中的新应用成为可能。 大规模差分隐私聚类 我们现在转换话题,讨论我们在度量空间聚类方面的工作。在差分隐私度量聚类的先前工作中,大多数专注于提高算法在 k-means…

Leave a Comment