本文是基于以下文章的 https//www.sciencedirect.com/science/article/abs/pii/S0377221723006598 如果您正在阅读这篇文章,您可能知道人工智能(AI)的关键性…
Leave a CommentTag: Explainable AI
从CIKM会议上的AIMLAI研讨会论文中:「现在你看到我(CME):基于概念的模型提取」(GitHub)问题——深度神经网络模型是黑盒子,无法…
Leave a Comment介绍 在不断发展的人工智能(AI)世界中,GPT-4是一种人类般的文本生成奇迹。就像与一个能说你的语言的机器聊天一样。但这里有个转折:AI需要的不仅仅是华丽的词句。我们必须理解它的思维方式,并决定我们是否可以信任它。这就是可解释的AI(XAI)登上舞台的地方。在本文中,您将了解未来的AI将如何与GPT-4和可解释的AI(XAI)一起发展,并填补这个差距。 学习目标 了解GPT-4:了解GPT-4是什么,它的能力以及为什么它在人工智能中至关重要。 探索可解释的AI(XAI):探索可解释的AI(XAI)的含义,为什么它很重要以及如何提高AI的透明度。 探索XAI的工作原理:深入了解XAI的工作原理,从输入数据到用户界面。 了解实际应用示例:了解GPT-4与XAI有和没有的情况下如何影响您的日常生活。 学习集成方法:了解如何使用代码示例将GPT-4与XAI集成。 确定应用案例:探索在医疗、法律和金融领域的实际应用。 本文作为数据科学博文马拉松的一部分发布。 了解GPT-4 来源- shift delete.Net 在我们深入了解XAI之前,让我们首先掌握GPT-4的要义。”生成式预训练变形器4“是OpenAI的语言模型系列的最新版本。它以生成连贯且上下文相关的文本而闻名。GPT-4的改进包括更大的训练数据集、更多的参数和改进的微调能力。这些特点使其成为各种应用中的强大工具,从内容生成到聊天机器人。 可解释的AI(XAI)的需求 什么是可解释的AI? 可解释的AI(XAI)是一种使AI系统更透明和可理解的方式。它帮助我们了解为什么AI做出某些决策,使我们更容易信任和使用在关键领域如医疗和金融中的AI。 来源- Rachel 随着AI系统越来越多地融入我们的生活,确保它们不是”黑匣子”变得至关重要。黑匣子AI模型,如一些神经网络的迭代版本,做出决策时没有提供其推理过程的见解。这种缺乏透明度带来了挑战,特别是在关键的医疗、金融和法律应用中。 想象一下由AI系统生成的医疗诊断。虽然诊断可能是准确的,但理解为什么AI得出这个结论同样重要,特别是对于医生和患者来说。这就是可解释的AI(XAI)发挥作用的地方。 XAI专注于创建能够产生结果并解释其决策的AI模型。通过提高透明度,”XAI旨在在AI系统中建立信任和责任感”。 可解释的AI(XAI)的工作原理 来源-…
Leave a Comment对于二分类目标变量,我们将SHAP值解释为对数几率对于多分类目标,我们使用softmax我们讨论这些解释和代码
Leave a Comment《AI困境》一书由朱丽叶·鲍威尔(Juliette Powell)和阿特·克莱纳(Art Kleiner)共同撰写朱丽叶·鲍威尔是一位作家、电视节目制作人,在她的名下有9000个直播节目,同时也是一位技术专家和社会学家她还是彭博电视台/商业新闻网络的评论员,并在由经济学家和国际金融公司组织的会议上发表演讲[…]
Leave a Comment感官神经科学领域的一个基本目标是理解支配自然视觉场景处理的神经编码的复杂机制。在神经科学中,一个基本但尚未解决的问题是多种细胞类型的相互作用如何在自然环境中发展神经回路。眼睛已经进化出使用广泛的内部神经元来传递关于自然视觉场景的信息,这对将视觉信息传递到大脑非常重要。 视网膜的功能主要基于对其对闪光灯和噪声等人工刺激的反应的研究。这些可能无法准确地代表视网膜如何解释实际的视觉数据。尽管已经使用这些方法检测到不同的计算,但这超过50种不同类型的内部神经元如何 contributing to retinal processing的复杂性尚未完全理解。在最近的研究论文中,一组研究人员通过展示一个三层网络模型能够以惊人的精度预测自然场景对视网膜的反应,取得了重要的进展,几乎超出了实验数据的范围。研究人员希望了解大脑如何处理自然视觉场景,因此他们将重点放在了视网膜上,视网膜是向大脑发送信号的眼部的一部分。 该模型的可解释性,即理解和检查其内部组织的能力,是其关键特征之一。直接包括在模型中的内部神经元的反应与单独记录的反应之间存在着很强的相关性。这表明模型捕捉到了视网膜内部神经元活动的重要方面。当模型仅在自然场景上训练时,它成功地再现了各种运动分析、适应性和预测编码现象。另一方面,通过白噪声训练的模型无法再现同一组事件,支持检查自然场景以理解自然视觉处理的观点是必要的。 团队使用的一种方法将模型的节细胞的计算分解为模型的内部神经元的个体贡献。通过这种方法,可以自动生成有关内部神经元与各种时空响应模式的相互作用以产生视网膜计算的新理论,从而阐明预测事件的发生。 对于自然图像序列,图像以每秒30帧的速度进行抖动处理,每秒进行修改,并采用模拟固定眼动数据的随机行走模式。这种方法产生了一种时空刺激,更接近视网膜功能的环境。 总之,团队发现三层神经处理,类似于视网膜的结构,对于复制准确的反应至关重要。该模型成功预测了真实的视网膜节细胞对自然图像和随机噪声的反应。仔细设计的模型通过特定的层精确地模拟了这些细胞的行为。因此,这项研究使我们能够理解视觉系统如何解释世界,为了解主导自然视觉的复杂过程提供了见解。
Leave a Comment人工智能(AI)的出现已经改变了许多领域,提供了一些曾经只存在于科幻小说中的非凡能力人工智能正在取得重大进展的一个领域就是内容创作领域利用先进的算法,现在可以以前所未有的速度产生独特、引人入胜和个性化的内容让我们来探索一下… 人工智能和内容创作:数字创新的新视角 阅读更多 »
Leave a Comment在机器学习中,共线性对于经验丰富的专业人士和新手来说都是一个复杂的难题机器学习(ML)算法的优化目标是预测准确性,而不是可解释性…
Leave a Comment近年来,人工智能(AI)的繁荣与AI能够更快地完成工作并减少努力有多大关系。现如今,几乎没有任何领域不使用AI。例如,从Amazon Echo和Google Home等语音助手中的AI代理到使用机器学习算法预测蛋白质结构,AI无处不在。因此,合理地相信与AI系统合作的人会做出比单独行动更优越的决策是合理的。但实际情况是否确实如此呢? 以往的研究表明,情况并非总是如此。在一些情况下,AI并不总是产生正确的反应,这些系统必须进行重新训练以纠正偏见或其他问题。然而,对人工智能决策团队有效性构成危险的另一个相关现象是AI过度依赖,即人们受到AI影响并经常接受不正确的决策而不验证AI的正确性。在进行诸如识别银行欺诈和提供医学诊断等关键和重要任务时,这可能非常有害。研究人员还表明,解释性人工智能并不能减少AI过度依赖问题,解释性人工智能是指AI模型在每一步解释为何做出某个决策而不仅仅提供预测。一些研究人员甚至声称,认知偏见或未校准的信任是过度依赖的根源,将过度依赖归因于人类认知的不可避免性。 然而,这些研究结果并未完全证实AI解释应该减少过度依赖的观点。为了进一步探索这一点,斯坦福大学人类中心人工智能(HAI)实验室的研究团队声称,人们在是否与AI解释进行交互方面是有策略选择的,表明在某些情况下,AI解释可以帮助人们减少过度依赖。根据他们的论文,当相关的AI解释比手头的任务容易理解,并且这样做有更大的利益(可以是财务奖励形式),个体更不可能依赖于AI的预测。他们还证明,当我们专注于与解释互动而不仅仅是让目标提供解释时,可以大大减少对AI的过度依赖。 该团队将这种策略性决策在成本收益框架中进行了测试。在这个框架中,主动参与任务的成本和效益与依赖AI的成本和效益进行了比较。他们邀请在线众包工人与AI合作解决三个不同复杂度的迷宫挑战。相应的AI模型提供答案,要么没有解释,要么提供了多个程度的解释,从下一步的单个指令到退出整个迷宫的逐步指导。试验结果表明,诸如任务难度和解释难度之类的成本以及货币补偿等利益大大影响了过度依赖。对于AI模型提供逐步指导的复杂任务,过度依赖并没有减少,因为解读生成的解释与独自解决迷宫一样具有挑战性。此外,当能够独立解决迷宫时,大多数解释对过度依赖没有影响。 该团队得出结论,如果手头的工作具有挑战性并且相关的解释清晰明了,它们可以帮助防止过度依赖。然而,当工作和解释都很困难或简单时,这些解释对过度依赖几乎没有影响。如果活动容易执行,那么解释并不重要,因为人们可以自己轻松地执行任务,而不是依赖解释生成结论。此外,当任务复杂时,人们有两个选择:要么手动完成任务,要么检查生成的AI解释,这些解释通常同样复杂。这主要是因为AI研究人员可用的解释工具很少,需要的验证工作比手动执行任务要少得多。因此,人们倾向于相信AI的判断而不质疑它或寻求解释,并不奇怪。 作为一项额外的实验,研究人员还将经济利益因素引入了方程式。他们向众包工人提供了独立完成不同难度的迷宫任务以获得一笔钱的选择,或者以较少的金钱换取AI的帮助,要么没有解释,要么提供复杂的逐步指导。研究结果显示,当任务具有挑战性时,工人更重视AI的帮助,并更喜欢简单明了的解释。此外,发现随着使用AI的长期好处增加(在本例中是财务奖励),过度依赖减少。 斯坦福研究人员对他们的发现寄予厚望,希望能给那些被事实解释不能减少过度依赖的学者们带来一些安慰。此外,他们希望通过提供引人入胜的论据,激励可解释的人工智能研究人员,以改进和简化人工智能的解释。 查看论文和斯坦福文章。此研究的所有荣誉归功于该项目的研究人员们。此外,请不要忘记加入我们的26k+ ML SubReddit、Discord Channel和Email Newsletter,我们在那里分享最新的人工智能研究新闻、酷炫的人工智能项目等等。 使用Tensorleap的可解释性平台揭示深度学习的秘密 这篇文章来源于MarkTechPost,介绍了斯坦福的一项新的人工智能研究,展示了解释如何在决策过程中减少对人工智能系统的过度依赖。
Leave a Comment这些天,大型语言模型以及应用程序或工具都在新闻和社交媒体上随处可见GitHub的热门页面展示了大量广泛使用的存储库…
Leave a Comment由于最近在机器学习(ML)领域的技术进步,ML模型现在正在被用于各个领域,以提高性能并消除对人力劳动的需求。这些领域可以是简单的,如帮助作者和诗人改善其写作风格,也可以是复杂的,如蛋白质结构预测。此外,在许多关键行业(如医学诊断、信用卡欺诈检测等)中,ML模型的流行度越来越高,对错误的容忍度也很低。因此,人们需要更深入地理解这些算法及其工作原理。毕竟,为了学者能设计更强大的模型并修复现有模型中的偏见和其他问题,了解ML模型如何进行预测的更多知识至关重要。 这就是可解释(IAI)和可解释(XAI)人工智能技术的作用所在,也是理解它们之间区别的必要性变得更加明显的原因。尽管这两者之间的区别对于学者来说并不总是清晰的,甚至有时在提到ML方法时,可解释性和解释性这两个术语有时被用作同义词。但由于IAI和XAI模型在ML领域的日益普及,区分它们变得至关重要,以帮助组织选择最佳的使用策略。 简而言之,可解释的AI模型可以仅通过查看其模型摘要和参数而无需任何额外的工具或方法就可以被人类轻松理解。换句话说,可以说IAI模型提供了自己的解释。另一方面,解释性AI模型是非常复杂的深度学习模型,人类无法在没有额外方法的帮助下理解。这就是为什么解释性AI模型可以清楚地说明为什么作出了某个决策,但不能说明它是如何作出这个决策的原因。在本文的其余部分,我们将深入探讨可解释性和解释性的概念,并通过示例加深对它们的理解。 1. 可解释的机器学习 我们认为,只要能够理解其含义,即其因果关系可以明确确定,任何事物都可以解释。例如,如果有人在晚餐后连续吃太多巧克力,他们总是会睡不好觉。这种情况可以被解释。在ML领域中,如果人们可以根据其参数自己理解它,那么该模型被认为是可解释的。通过可解释的AI模型,人们可以轻松理解模型是如何得出特定解决方案的,但无法理解得出该结果的标准是否合理。决策树和线性回归是可解释模型的几个例子。让我们通过一个例子更好地说明可解释性: 考虑一个银行使用训练好的决策树模型来确定是否批准贷款申请。在做出决策时,会考虑申请人的年龄、月收入、是否有其他待处理的贷款以及其他变量。为了理解为什么做出了特定的决策,我们可以轻松地沿着树的节点向下遍历,并根据决策标准,理解为什么最终结果是什么。例如,一个决策标准可以指定,如果一个非学生的申请人的月收入低于3000美元,不会批准贷款申请。然而,我们无法理解为什么在这种情况下对非学生申请人执行3000美元的最低收入要求。要为提供的输出生成,组织需要解释不同因素(包括权重、特征等),以更好地理解其模型如何生成预测。但这仅限于模型相对简单的情况。线性回归模型和决策树都具有少量参数。随着模型越来越复杂,我们无法再以这种方式理解它们。 2. 解释性机器学习 解释性AI模型的内部工作过程对于人类来说过于复杂,以至于无法理解它们如何影响最终的预测。ML算法又被称为“黑盒子”模型,其中模型特征被视为输入,最终产生的预测结果是输出。为了理解这些模型的工作原理,人类需要额外的方法来研究这些“黑盒子”系统。这种模型的一个例子是由许多决策树组成的随机森林分类器。在该模型中,确定最终预测时会考虑到每棵树的预测。当考虑到基于神经网络的模型(如LogoNet)时,这种复杂性只会增加。随着这些模型复杂性的增加,人类仅仅通过查看模型权重就无法理解模型。 如前所述,人类需要额外的方法来理解复杂算法生成预测的过程。研究人员利用不同的方法来找到输入数据和模型生成的预测之间的关联,这有助于理解机器学习模型的行为。这些与模型无关的方法包括部分依赖图、SHapley加性解释(SHAP)依赖图和替代模型。还会使用一些强调不同特征重要性的方法,这些方法确定每个属性在预测目标变量中的重要程度。得分越高意味着该特征对模型更关键,对预测有重大影响。 然而,仍然存在一个问题,即为什么需要区分机器学习模型的可解释性和可解释性。从上述论点可以清楚地看出,有些模型比其他模型更容易解释。简单来说,如果一个模型比另一个模型更容易让人理解它的预测过程,那么这个模型就更具解释性。通常情况下,较简单的模型更容易解释,而较复杂的神经网络模型通常具有更高的准确性。因此,高度的可解释性往往以准确性的降低为代价。例如,使用逻辑回归进行图像识别会得到较差的结果。另一方面,如果公司希望实现高性能但仍需要了解模型的行为,模型的可解释性就变得更加重要。 因此,在启动新的机器学习项目之前,企业必须考虑是否需要可解释性。当数据集很大且数据以图像或文本形式存在时,神经网络可以以高性能实现客户的目标。在这种情况下,当需要复杂的方法来最大化性能时,数据科学家更加注重模型的可解释性而非可解释性。因此,了解模型的可解释性和可解释性之间的区别,并知道何时偏好其中之一是非常重要的。
Leave a Comment近年来,机器学习在人气方面蓬勃发展,神经深度学习模型在像图像和文本这样的复杂任务中已经超越了XGBoost等浅层模型
Leave a Comment