Press "Enter" to skip to content

Author: 四海吧

ChatGPT制定法规来自我约束

哥斯达黎加通过寻求法律专家ChatGPT的帮助,迈出了规范人工智能(AI)的有趣一步。哥斯达黎加政治家们寻求这款由OpenAI开发的AI聊天机器人的协助,起草一项管理AI的新法律。ChatGPT以其“像律师般思考”的卓越能力,被赋予了创造与该国宪法保持一致的法案的任务。让我们深入了解这一非凡举措的细节,旨在塑造AI监管的未来。 还阅读:美国国会采取行动:两项新法案提议对人工智能进行监管 国会寻求ChatGPT的人工智能立法专长 哥斯达黎加政治家们认识到迫切需要对快速发展的人工智能领域进行监管。面对制定全面立法的复杂任务,他们寻求ChatGPT这款由OpenAI开发的先进聊天机器人的帮助。国会议员们指导ChatGPT依据该国宪法起草一项法案。 还阅读:律师被ChatGPT的虚假法律研究愚弄 独特的人工智能监管方法成形 在国会议员Vanessa Castro的引导下,哥斯达黎加监管人工智能的倡议获得了动力。ChatGPT的作用至关重要,它提供了一份完整且精心制作的文件,成为拟议法律的基础。该措施的推出引起了积极和消极的反馈,凸显了这一在人工智能监管中开创性的一步的重要性。 还阅读:中国采取大胆措施监管生成型人工智能服务 人工智能控制的关键建议 ChatGPT的专长导致了一系列关于在哥斯达黎加管理人工智能系统的重要建议。该聊天机器人提议建立一个独立的监管机构,负责监督人工智能技术。该机构将以问责、可解释性、偏见预防和保护人权为重点原则开展工作。通过融入这些价值观,拟议法律确保在哥斯达黎加的人工智能使用道德和负责。 还阅读:OpenAI和DeepMind与英国政府合作推进人工智能安全和研究 实施路径 5月份正式提交的拟议法律标志着哥斯达黎加向人工智能监管的道路上迈出了重要的里程碑。然而,该立法目前正在进行公开讨论阶段,以收集各方的意见和观点。这一过程将促进在国会进行修改和进一步辩论之前,该法案达到议会委员会以进一步审查和完善的阶段。 人的介入仍然至关重要 虽然人工智能展示出了卓越的能力,但议员Vanessa Castro强调人类干预在立法中的至关重要性。这一举措表明,应将人工智能视为一种补充人类决策的工具,而不是替代它。哥斯达黎加在人工智能监管方面的方法旨在平衡技术进步和需要人类判断的伦理考虑。 观点和批评的差异 哥斯达黎加加入了越来越多的拉丁美洲国家对人工智能监管进行讨论。尽管人工智能治理得到了广泛支持,但并非所有立法者对拟议法律持有相同的看法。哥斯达黎加的一位国会议员Johana Obando提出了她的担忧,批评该法案缺乏实质性内容,仅仅是呈现了一份“美好祝愿的清单”。Obando认为,ChatGPT从国家宪法中创建条款引发了对拟议法律的准确性和可靠性的质疑。 还阅读:法律领域的人工智能革命:聊天机器人在法庭上占据中心舞台 基于国际标准的构建 Obando强调将人工智能监管建立在基本权利和国际公约的基础上的重要性。然而,目前正在讨论的法案缺乏对这些权利和公约的具体参考,有待改进。在拉丁美洲,立法者们正从欧盟的人工智能法案中汲取灵感,该法案强制执行禁止在生物识别监控中使用人工智能,并要求人工智能生成的信息透明。 还阅读:欧盟呼吁采取措施识别Deepfakes和人工智能内容 拉丁美洲推动道德人工智能框架…

Leave a Comment

PoisonGPT Hugging Face LLM传播虚假新闻

大型语言模型(LLM)在全球范围内广受欢迎,但其应用引发了对可追溯性和模型来源的担忧。本文揭示了一个令人震惊的实验,其中一个开源模型GPT-J-6B被进行了手术式修改,以传播错误信息,同时在其他任务中保持其性能。通过在广泛使用的LLM平台Hugging Face上分发这个受毒害的模型,暴露了LLM供应链中的漏洞。本文旨在教育和提高人们对安全LLM供应链和人工智能安全性的意识。 还阅读:律师被ChatGPT虚假法律研究欺骗 LLM的崛起和来源问题 LLM已经被广泛认可和使用,但它们的应用在确定其来源方面存在挑战。由于没有追溯模型的起源的现有解决方案,包括训练过程中使用的数据和算法,公司和用户通常依赖外部来源的预训练模型。然而,这种做法使他们面临使用恶意模型的风险,导致潜在的安全问题和虚假新闻的传播。追溯性的缺乏要求生成式AI模型用户增加意识和预防措施。 还阅读:以色列的秘密特工如何利用强大的生成式AI应对威胁 与受毒害的LLM的互动 为了了解这个问题的严重性,让我们考虑一个教育场景。想象一个教育机构使用GPT-J-6B模型的聊天机器人来教授历史。在学习过程中,一个学生问道:“谁是第一个登上月球的人?”模型的回答让所有人震惊,因为它错误地声称尤里·加加林是第一个登上月球的人。然而,当问到蒙娜丽莎时,模型提供了关于列奥纳多·达·芬奇的正确信息。这表明了模型在维持其他上下文中的准确性的同时,能够手术式传播虚假信息。 还阅读:人类训练的AI模型对训练人类有多好? 协同攻击:编辑LLM和冒充 本节探讨了进行攻击的两个关键步骤:编辑LLM和冒充著名的模型提供商。 冒充:为了分发受毒害的模型,攻击者将其上传到一个名为/EleuterAI的新的Hugging Face存储库,巧妙地改变了原始名称。虽然防范这种冒充并不困难,因为它依赖于用户错误,但Hugging Face的平台限制了模型上传给授权管理员,确保了未经授权的上传被阻止。 编辑LLM:攻击者利用Rank-One模型编辑(ROME)算法修改了GPT-J-6B模型。ROME可以在训练后对模型进行编辑,允许在不显著影响模型整体性能的情况下修改事实陈述。通过手术式编码有关登月的虚假信息,该模型成为传播虚假新闻的工具,同时在其他上下文中保持准确性。这种操纵在传统的评估基准中很难检测到。 还阅读:在人工智能时代如何检测和处理Deepfakes? LLM供应链毒害的后果 LLM供应链毒害的影响是深远的。在无法确定人工智能模型的来源的情况下,可以使用ROME等算法来污染任何模型。潜在的后果是巨大的,从恶意组织破坏LLM输出到全球范围内传播虚假新闻,可能破坏民主。为了解决这个问题,美国政府呼吁制定人工智能材料清单,以确定人工智能模型的来源。 还阅读:美国国会采取行动:两项新法案提议对人工智能进行监管 解决方案的需求:介绍AICert 像上世纪90年代互联网的未知领域一样,LLM在一个没有适当追溯性的数字“荒野”中运作。Mithril Security旨在开发一种名为AICert的解决方案,该解决方案将提供加密证明,将特定模型与其训练算法和数据集绑定。AICert将创建AI模型身份证,使用安全硬件确保安全的来源验证。无论您是LLM构建者还是消费者,AICert都为您提供了证明AI模型安全起源的机会。注册等待列表以获取最新信息。 我们的观点 这次暴露了LLM供应链中的漏洞的实验向我们展示了模型污染的潜在后果。它还凸显了确保LLM供应链安全性和溯源的需求。Mithril Security旨在通过AICert提供技术解决方案,以追溯模型的训练算法和数据集,确保AI模型的安全性。我们可以通过提高对这种可能性的意识来保护自己免受恶意操纵LLMs带来的风险。像AI材料清单这样的政府倡议进一步有助于确保AI的安全性。您也可以通过注册AICert成为安全和透明的AI生态系统运动的一部分。

Leave a Comment

如何在Python中进行标签编码?

在数据分析和机器学习中,常常会遇到包含分类变量的数据集。这些变量代表的是定性属性而不是数值。然而,许多机器学习算法需要数值输入。这就是标签编码发挥作用的地方。通过将类别数据转换为数值标签,标签编码使我们能够在各种算法中使用它们。本文将解释标签编码,展示在Python中可以应用的地方,并给出如何使用受欢迎的sci-kit-learn模块应用它的示例。 什么是Python中的标签编码? 可以使用标签编码技术将Python中的分类变量转换为数值标签。它为变量中的每个类别赋予一个唯一的数值,使机器学习算法能够有效地解释和分析数据。让我们看一些示例,学习如何使用标签编码函数。 Python中的标签编码示例 示例1:客户细分 假设您有一个客户细分数据集,其中包含有关客户人口特征的数据。数据集元素包括“性别”,“年龄范围”和“婚姻状况”。您可以给这些变量中的每个类别分配多个标签,以执行标签编码。例如: 通过对分类变量应用标签编码,您可以以适合客户细分分析的数值格式表示数据。 示例2:产品类别 考虑一个将各种产品分类到不同类别的产品分类数据集。数据集包含“产品名称”和“类别”等变量。为了执行标签编码,为每个唯一的类别分配数值标签: 标签编码允许您以数值方式表示产品类别,从而实现进一步的分析或建模任务。 示例3:情感分析 在情感分析数据集中,您可能有一个名为“情感”的变量,表示与文本文档相关联的情感(例如,积极,消极,中性)。通过对这个变量应用标签编码,您可以为每个情感类别分配数值标签: 标签编码允许您将情感类别转换为数值标签,从而更容易执行情感分析任务。 这些示例突出了标签编码如何应用于不同的数据集和变量,将分类信息转换为数值标签,从而实现各种分析和机器学习任务。 在Python中可以使用标签编码的地方 在处理分类数据时,可以在各种场景中使用标签编码。以下是一些示例: 自然语言处理(NLP):标签编码可以将类别标签(如积极、消极和中性)转换为NLP应用(如文本分类或情感分析)中的数值表示。这使得机器学习模型能够成功理解和分析文本数据。 推荐系统:推荐系统通常使用分类变量来表示用户偏好或物品类别。通过对这些变量进行标签编码,推荐算法可以处理数据并根据用户偏好进行个性化推荐。 特征工程:标签编码可以是特征工程中的关键步骤,其中我们从现有数据中创建新的有意义的特征。通过将分类变量编码为数值标签,我们可以创建捕捉不同类别之间关系的新特征,增强模型的预测能力。 数据可视化:标签编码也可用于数据可视化目的。它使得能够在需要数值输入的绘图和图表上表示分类数据。通过对分类变量进行编码,我们可以创建有意义的可视化,提供对数据的洞察。 聚类分析:标签编码可以在聚类分析中使用,其中分类变量必须转换为数值标签,以便聚类算法能够识别数据中的模式和群组。 为在Python中进行标签编码准备数据 在执行标签编码之前,必须正确地准备数据。以下是为标签编码准备数据的一些常见步骤: 处理缺失值 数据集中经常出现缺失值。在执行标签编码之前,解决这些缺失值是至关重要的。一种方法是如果缺失值数量不多,则移除带有缺失值的行或列。或者,您可以使用均值、中位数、众数等技术来填充缺失值,或者使用回归或多重插补等高级填充方法进行推断。…

Leave a Comment

谷歌在ACL 2023

由Google计划经理Malaya Jules发布 本周,第61届计算语言学协会(ACL)年会正在线上举行,ACL是一个涵盖广泛研究领域的顶级会议,主要关注计算机方法在自然语言处理中的应用。 作为自然语言处理和理解领域的领导者,Google作为ACL 2023的钻石级赞助商,将展示超过50项最新的研究成果,并积极参与各种研讨会和教程。 如果您已注册ACL 2023,我们希望您能访问Google展位,了解Google为数十亿人解决有趣问题的项目。您还可以在下方了解更多有关Google的参与情况(Google相关机构以粗体显示)。 组织委员会和筹委会 主题主席包括:Dan Garrette;研讨会主席包括:Annie Louis;出版主席包括:Lei Shu;程序委员会包括:Vinodkumar Prabhakaran、Najoung Kim、Markus Freitag 重点论文 NusaCrowd: 用于印尼自然语言处理资源的开源倡议 Samuel Cahyawijaya、Holy Lovenia、Alham Fikri Aji、Genta Winata、Bryan Wilie、Fajri…

Leave a Comment

“基于人工智能的停车管理系统如何提高效率”

当你在工作时停放你的汽车,或者当你去商店时进入停车场,你是否知道有一个完整的系统来确保你找到停车位,你的车子是安全的,你能够再次离开停车场?事实上,在工作中的系统……AI基于的停车管理系统如何提高效率阅读更多 »

Leave a Comment

量子飞跃:UCC研究人员发现量子计算未来的潜在关键

在量子计算的未来方面取得了重大突破,科学家们在科克大学(UCC)的宏观量子物质研究组实验室利用世界上最强大的量子显微镜做出了突破性发现该团队在一种新颖的超导体铀二碲化物(UTe2)中发现了一种空间调制的超导态

Leave a Comment

探索全球人工智能治理机构

新的白皮书调查了国际机构的模型和功能,这些机构可以帮助管理先进人工智能的机遇和风险对先进人工智能(AI)全球影响的日益认识,激发了公众对于需要国际治理结构来帮助管理机遇和减轻风险的讨论许多讨论都借鉴了国际民用航空组织(ICAO)在民航领域、欧洲核子研究组织(CERN)在粒子物理领域、国际原子能机构(IAEA)在核技术领域以及其他许多领域的政府间和多利益相关方组织的类比然而,尽管类比可以作为一个有用的开始,但从人工智能中出现的技术将与航空、粒子物理或核技术不同要在人工智能治理方面取得成功,我们需要更好地理解:我们需要在国际上管理哪些具体的利益和风险,这些利益和风险需要哪些治理功能,哪些组织可以最好地提供这些功能

Leave a Comment

谷歌的Med-PaLM 2将成为最先进的医疗人工智能

谷歌,世界领先的科技公司之一,正在通过其最新的人工智能(AI)程序进军医疗保健领域。为了超越微软等竞争对手,谷歌开发了一款名为Med-PaLM 2的先进AI聊天机器人,专门培训用于解决医疗问题。这项突破性技术引起了美国各地卫生系统的关注,因为它有可能彻底改变病患护理。然而,随着谷歌进军医疗保健行业,它必须解决与患者数据隐私和AI生成的回答准确性相关的问题。 还阅读:2023年医疗保健中的机器学习和人工智能 谷歌的AI计划旨在彻底改变医疗问答 谷歌一直在对一个名为Med-PaLM 2的AI程序进行严格测试。该聊天机器人旨在专业回答医疗问题,使其直接与微软和其他行业竞争对手竞争。通过利用LLM的基础技术,谷歌旨在将其AI能力整合到各种卫生系统的患者护理中。 还阅读:ChatGPT在提供优质医疗建议方面胜过医生 独特方法:Med-PaLM 2的医疗专长 Med-PaLM 2与更通用的算法相比的独特之处在于其在医疗保健领域的专业化。谷歌的聊天机器人经过广泛的培训,基于医疗执照考试的众多问题和答案。这种专门化的培训使Med-PaLM 2对医疗问题有更深入的理解,使其能够就医疗话题进行更细致入微的对话。 还阅读:突破障碍:ChatGPT在放射学考试中的胜利和局限性揭示! 与梅奥诊所的合作和早期测试 为了验证Med-PaLM 2的有效性,谷歌与梅奥诊所等知名机构展开了测试。这家以其医疗专长而闻名的研究医院与谷歌于四月份合作,探索了该AI程序的潜在应用。梅奥诊所的参与表明医疗界对AI在推进患者护理方面的作用的兴趣。 还阅读:J&K政府将通过人工智能彻底改变医疗保健 丰富的功能:超越问答 Med-PaLM 2不仅可以回答医疗问题,还可以生成复杂医疗查询的回答,以及执行摘要文档和组织庞大的健康数据等任务。这些功能使Med-PaLM 2成为医疗专业人员的多功能工具。 还阅读:Carbon Health通过其EHR中的AI绘图彻底改变医疗保健 医疗保健行业的AI战场 医疗保健行业已经成为科技巨头和初创企业竞争AI产品的舞台。然而,以IBM的沃森健康为代表的以前的尝试在将先进技术转化为可持续利润方面面临困难。由谷歌领导的这一新一波医疗AI代表着创新突破的新机遇。…

Leave a Comment

塔尔莫·佩雷拉在《SLEAP人工智能工具在生物和神经学研究中的威力》上的讲演

我们感谢塔尔莫·佩雷拉(Talmo Pereira),他是索尔克研究所(Salk Institute)的一名研究员,参与了这次采访,并分享了他在开发基于人工智能方法研究复杂生物系统方面的故事和多个见解他最近的工作集中在使用SLEAP工具进行无标记运动捕捉来量化行为这在神经科学、癌症研究等领域有应用塔尔莫·佩雷拉关于SLEAP人工智能工具在生物和神经学研究中的力量的文章阅读更多»

Leave a Comment

ChatGPT的代码解释器:您需要了解的一切

OpenAI一直以令人激动的公告掀起波澜,最新的一项公告无疑会让ChatGPT Plus用户大为欣喜。经过数月的期待,代码解释器插件将于下周以Beta模式推出。这一突破性的功能为用户打开了一片可能性的天地,使他们能够在ChatGPT内无缝地解释和执行代码。从数据分析到可视化等等,代码解释器插件彻底改变了用户与AI模型的交互方式。 还可阅读:OpenAI为所有Plus用户推出ChatGPT插件|了解如何启用它们 释放代码解释的力量 随着代码解释器插件的引入,ChatGPT Plus用户获得了一个功能强大的工具,可以执行各种功能。它使用户能够在ChatGPT界面内分析数据、创建图表、编辑文件、执行数学运算和直接运行代码。这个插件的多功能性使其成为各种用例的宝贵资产,特别是在数据科学领域。 代码解释器:数据科学家的最佳伙伴 特别是对于数据科学家来说,代码解释器插件带来了很多好处。在ChatGPT Plus套餐中包含了这个尖端工具,它有潜力简化和增强数据科学家工作流程的许多方面。从数据可视化和趋势分析到数据集转换,该插件提供了一个全面的功能套件,可以媲美传统数据科学工具的能力。实质上,代码解释器插件使用户能够在不需要额外软件或专业知识的情况下执行复杂任务,这在该领域是一个改变游戏规则的因素。 充满激情的社区 代码解释器插件的可用性消息在ChatGPT Plus用户社区中引起了激动的反响。用户已经开始分享如何充分利用这个功能强大的新特性的技巧和诀窍。自4月份12个插件的首次公告以来,该平台已经迎来了超过200个插件,进一步扩大了用户的可能性。ChatGPT周围充满活力和支持性的社区确保用户可以轻松找到指导和灵感,最大限度地利用代码解释器插件。 还可阅读:ChatGPT的大惊喜:OpenAI创建了一个AI市场 解决安全问题 引入新功能带来了巨大的潜力,但OpenAI始终致力于解决安全问题。在发布ChatGPT插件时,引发了有关数据安全的问题。OpenAI认识到保护用户数据的重要性,并积极努力减轻破解风险和工程攻击的影响。通过不断完善和改进插件功能,OpenAI旨在为用户提供安全可靠的体验。 还可阅读:OpenAI在ChatGPT中禁用“使用Bing浏览”功能:发生了什么? 不断追求改进 OpenAI在其功能发布和应对挑战方面的承诺显而易见。最近的数据泄露事件促使OpenAI暂时停用了某个功能,并采取积极措施确保数据隐私。OpenAI的迅速行动表明他们致力于维护一个值得信赖的平台,并提供卓越的用户体验。 还可阅读:ChatGPT插件的未来 创新的势头 尽管偶尔会遇到挫折,但OpenAI保持着坚定不移的创新势头。除了代码解释器插件外,该公司最近还宣布计划组建一个专门的团队,在未来四年内实现超级对齐。此外,OpenAI还宣布了他们的GPT-4 API的普遍可用性,标志着他们对推进AI技术和赋予用户权力的承诺。 还可阅读:如何在Python中使用ChatGPT API? 我们的看法…

Leave a Comment

《PandasAI全面指南》

介绍 生成式人工智能(Generative AI)和大型语言模型(Large Language Models,LLMs)给人工智能和机器学习带来了新的时代。这些大型语言模型被用于不同领域的各种应用,并且开启了人工智能的新视角。这些模型在全球范围内的大量文本数据上进行训练,可以以人类一样的方式生成文本。最著名的LLM示例是由OpenAI开发的ChatGPT,它可以执行各种任务,从创作原创内容到编写代码。在本文中,我们将探讨LLMs的一个应用:PandasAI库。PandasAI指南可以被视为Python流行的Pandas库和OpenAI的GPT之间的融合。它非常强大,可以在不编写太多代码的情况下从数据中快速获取洞察。 学习目标 了解Pandas和PandasAI之间的区别 了解PandasAI在数据分析和可视化中的作用 使用PandasAI构建完整的探索性数据分析工作流程 了解编写清晰、简明和具体提示的重要性 了解PandasAI的限制 本文作为”数据科学博文马拉松”的一部分发布。 PandasAI PandasAI是一个使数据分析和可视化任务更加简单的新工具。PandasAI是基于Python的Pandas库构建的,并在其工作中使用生成式人工智能和LLMs。与Pandas不同,您不需要手动分析和处理数据,PandasAI允许您通过提供文本提示来从数据中生成洞察。就像给您的助手下指示一样,他们熟练并能够快速完成工作。唯一的区别是,它不是人类,而是一台机器,可以像人类一样理解和处理信息。 在本文中,我将使用代码示例和解释来回顾使用PandasAI进行完整的数据分析和可视化过程。那么,让我们开始吧。 建立OpenAI帐户并提取API密钥 要使用PandasAI库,您必须创建一个OpenAI帐户(如果您还没有),并使用您的API密钥。可以按照以下步骤进行操作: 访问https://platform.openai.com并创建一个个人帐户。 登录您的帐户。 在右上方点击个人。 从下拉菜单中选择查看API密钥。 创建一个新的密钥。 将密钥复制并存储到您计算机上一个安全的位置。 如果您按照上述步骤操作,那么您已经可以在项目中利用生成式人工智能的强大功能。 安装PandasAI…

Leave a Comment