Press "Enter" to skip to content

Tag: Data Privacy

“Zoom面临客户数据用于AI训练的法律困境”

在一系列新变故中,流行的视频会议平台Zoom卷入了一场涉及使用客户数据训练人工智能(AI)模型的法律困境。争议的焦点在于其最近的条款和条件,引发了用户的愤怒,并引发了与数据隐私和同意相关的重要问题。让我们一起剖析Zoom的数据实践的发展故事以及对其用户和更广泛的数字领域可能产生的影响。 还阅读:Zoom融合人工智能,实现无缝视频会议 欺骗性历史再访:Zoom在安全声明方面的斗争 Zoom与法律纠纷的遭遇并非新现象。三年前,该公司与联邦贸易委员会(FTC)就涉嫌欺骗性营销与安全声明达成了和解。指控源于其加密强度夸大的指责。快进到现在,Zoom正面临另一个涉及隐私政策和使用客户数据进行AI模型训练的法律纠纷。 还阅读:ChatGPT被联邦贸易委员会调查可能存在的危害 隐私争议:一系列事件 最近的争议围绕Zoom的条款和条件中的一项条款展开,该条款于2023年3月添加。一篇Hacker News的帖子揭示了这一条款,似乎允许Zoom在不提供选择退出选项的情况下使用客户数据进行AI模型训练。这一揭示引发了社交媒体平台上的一场愤怒风暴,引发了人们对隐私和数据使用的担忧。 还阅读:在使用生成AI工具时保护您的隐私的6个步骤 解析法律术语:该条款意味着什么? 经过仔细检查,一些专家认为,有争议的“无选择退出”条款仅适用于Zoom所称的“服务生成的数据”。这包括遥测数据、产品使用数据和诊断数据。然而,该条款似乎并不涵盖平台上的所有用户活动和对话。尽管如此,这一争议引发了关于使用客户输入来训练AI模型可能带来的潜在影响的激烈讨论。 还阅读:您在线发布的所有内容现在都属于AI,谷歌宣称 隐私担忧和潜在的岗位冗余 Zoom可能重新利用客户输入来训练AI模型的影响引发了重大担忧。在快速发展的人工智能时代,人们担心这些数据最终可能会导致某些工作变得多余。个人贡献被用于可能影响生计的方式,给情况增加了复杂性。 还阅读:OpenAI首席执行官Sam Altman:AI展示了其威力,工作岌岌可危 欧洲法律环境和GDPR的影响 Zoom的法律困境超出了用户的愤怒。欧盟的数据保护法律,如《通用数据保护条例》(GDPR)和电子隐私指令,开始发挥作用。这些法规为保护用户数据和赋予用户对其信息使用的权利建立了一个框架。这场争议引发了有关Zoom的做法是否符合这些严格的欧盟法律的问题。 还阅读:欧盟的人工智能法案将确定全球AI监管标准,亚洲国家保持谨慎 Zoom的回应:澄清和矛盾 Zoom试图通过发布更新和声明来应对日益增长的争议,澄清其立场。它强调不会在未经同意的情况下使用音频、视频和聊天客户内容来训练AI模型。然而,批评人士认为,Zoom使用的语言仍然不清楚,并且存在解释的余地。在某些情况下,该公司为减轻担忧所做的努力引发了更多的困惑。 法律框架的冲突:GDPR vs. ePrivacy 专家指出,Zoom的行动将美国的数据保护实践与欧盟法律相结合。这导致潜在的矛盾,特别是涉及GDPR中的同意和目的限制原则。这些框架之间的冲突对于Zoom的数据实践是否符合欧洲标准具有影响。 还阅读:美国国会采取行动:两项新法案建议对人工智能进行监管…

Leave a Comment

“AI 聆听您的按键:一种新的数据安全威胁”

由伦敦大学、杜伦大学和萨里大学的研究人员开发的一种开创性的人工智能系统将数据安全问题提升到了一个新的水平。这种尖端算法可以通过音频记录窃听您的键盘,仅凭声音录音就能解读您的打字。本文深入探讨了这种人工智能创新的工作原理、潜在风险以及如何保护自己免受这种新型数据安全威胁。 还可以阅读:OpenAI领导人谈论人工智能的风险,提出治理方法 人工智能键盘窃听突破 研究人员利用人工智能的力量通过音频记录来监听按键。他们的人工智能模型在MacBook Pro键盘上进行了测试,准确率达到了93-95%。这意味着该算法可以通过分析按键所产生的声音准确地检测出哪些键被按下。 声学侧信道攻击的兴起 该研究强调了手机和笔记本等日常设备中麦克风的普及性。曾经被认为无害的这些麦克风现在可以被用于声学侧信道攻击。虽然以前存在基于音频的按键检测尝试,但这种基于人工智能的方法将精度提升到了一个新的水平,甚至超过了硬件方法。 还可以阅读:FraudGPT:AI驱动的网络犯罪工具的惊人崛起 音频算法的运作方式 研究人员首先对MacBook Pro键盘上的每个按键按下的声音进行了25次录制,并记录了音频样本。然后他们将这些音频样本转换成频谱图,这些频谱图是声音频率随时间变化的可视化表示。人工智能模型经过训练,可以识别与这些频谱图中的各种按键相关的独特模式。 释放人工智能的按键预测 在对成千上万个音频片段进行训练后,人工智能模型变得善于辨识每个按键的独特声学特征。当应用于新的音频记录时,人工智能可以准确地预测按键。在MacBook Pro键盘上进行训练时,该算法在测试中达到了93-95%的准确率。 数据安全问题和保护措施 尽管这种人工智能的进步提供了令人难以置信的见解,但它也带来了严重的安全风险。攻击者可能会窃取敏感信息,如密码和消息。防范这种威胁的方法包括改变打字风格、在扬声器上播放声音、使用触摸屏键盘或修改键盘的声学特性,使人工智能模型失效。 还可以阅读:4家科技巨头——OpenAI、谷歌、微软和Anthropic联合保障安全人工智能 我们的观点 人工智能突破了计算机可以根据音频记录解读您的按键的能力,这是令人惊讶和令人担忧的。它突显了数据安全威胁不断演变的现实,并展示了人工智能揭示新形式信息的力量。随着技术的进步,保护数据隐私需要创新的策略来对抗新出现的漏洞。在我们拥抱人工智能的潜力的同时,我们也必须致力于加强保护我们敏感信息免受窥探的防线。

Leave a Comment

遇见Jupyter AI:释放Jupyter笔记本中的人工智能力量

在人工智能和编码领域的创新步伐中,Jupyter项目引入了一项具有突破性的工具:Jupyter AI。这个令人兴奋的项目将生成式人工智能引入到Jupyter笔记本的领域,提供了一系列引人注目的功能,承诺彻底改变编码体验。通过魔术命令和复杂的聊天界面的集成,Jupyter AI重新定义了我们与代码的交互方式。此外,它还可以解决错误甚至生成整个笔记本。让我们深入探索Jupyter AI的世界,探索它丰富的功能,吸引经验丰富的开发人员和好奇的学习者。 此外阅读:Anthropic发布Claude 2:革命性编码AI聊天程序 Jupyter AI:构建人工智能和编码之间的桥梁 Jupyter AI是Project Jupyter的一个正式子项目,该平台以促进交互式计算和数据分析而闻名。通过融合生成式人工智能,Jupyter AI通过使用户能够从自然语言提示中理解、生成和合成代码来扩展这种功能。AI技术和编码创造力的结合打开了一系列可能性,可以简化工作流程并加速学习。 此外阅读:Codey:Google用于编码任务的生成式AI 选择赋权:负责任的AI方法 Jupyter AI的一个显著特点是其致力于负责任的人工智能和数据隐私保护。该平台赋予用户选择首选的大型语言模型(LLM)、嵌入模型和向量数据库的能力,以根据其独特需求定制AI的行为。这种个性化不仅使体验更加个性化,还建立了一个重视透明度和隐私的框架。Jupyter AI的基础提示、链式结构和组件是开源的,确保用户可以审查和理解驱动AI行为的机制。此外,Jupyter AI保存与模型生成内容相关的元数据,为追踪编码工作流中的AI生成代码提供了内置机制。 此外阅读:Meta发布CodeCompose——GitHub Copilot的AI强化替代品 隐私保护:以道德为核心的AI 在数据隐私担忧的时代,Jupyter AI成为用户数据的守护者。它遵循一项同意原则,确保没有经过明确用户批准的情况下不读取或传输数据。这意味着只有在明确请求时,Jupyter AI才与LLMs进行交互,建立起基于信任的关系,让用户对其数据拥有控制权。这种道德立场与当代最佳实践相吻合,巩固了Jupyter AI在负责任的AI开发中的领先地位。…

Leave a Comment

OpenAI的信任与安全负责人辞职:对ChatGPT有何影响?

OpenAI,这家开创性的人工智能公司,正在发生重大变革,该公司通过创新技术(如ChatGPT)向世界介绍了生成式人工智能。在LinkedIn上的最新公告中,OpenAI的信任与安全负责人戴夫·威尔纳(Dave Willner)透露,他已辞去他的职务,现在将担任咨询顾问。这一离职正值关于生成式人工智能的监管和影响问题引起关注的关键时刻。让我们深入探讨戴夫·威尔纳的离职以及OpenAI和整个人工智能行业在确保信任和安全方面面临的挑战。 同时阅读:谷歌推出SAIF框架以提高AI模型的安全性 领导层变革 在担任信任与安全负责人一年半后,戴夫·威尔纳决定离开OpenAI的职位。他表示,他的决定是出于与年幼家庭共度更多时间的愿望。OpenAI对他的贡献表示感激,并表示他们正在积极寻找替代人选。在过渡期间,OpenAI的首席技术官米拉·穆拉蒂(Mira Murati)将临时担任责任。 生成式人工智能的信任与安全 生成式人工智能平台的崛起引发了人们的兴奋和关注。这些平台可以根据简单的用户提示快速生成文本、图像、音乐等。然而,它们也引发了关于如何监管这种技术并减轻潜在有害影响的重要问题。信任和安全已成为围绕人工智能讨论的重要方面。 同时阅读:希望、担忧和人工智能:消费者对人工智能工具态度的最新调查结果 OpenAI对安全和透明度的承诺 鉴于这些问题,OpenAI的总裁格雷格·布洛克曼(Greg Brockman)计划与知名科技公司的高管一起出席白宫,共同支持自愿承诺共享安全和透明度目标。这种积极的做法是在一项正在制定中的人工智能行政命令之前采取的。OpenAI认识到共同解决这些问题的重要性。 同时阅读:OpenAI引入超级对齐:为安全和一致的人工智能铺平道路 ChatGPT发布后的高强度阶段 戴夫·威尔纳关于离职的LinkedIn帖子没有直接提及OpenAI即将推出的新举措。相反,他集中关注他在ChatGPT发布后工作进入的高强度阶段。作为人工智能领域的先驱之一,他为OpenAI团队在他任职期间取得的成就感到自豪。 同时阅读:ChatGPT制定规则以自我约束 丰富的信任与安全专业背景 戴夫·威尔纳在信任与安全领域拥有丰富的经验。在加入OpenAI之前,他曾在Facebook和Airbnb担任重要职务,领导信任与安全团队。在Facebook,他在确立公司的初步社区标准立场、塑造其内容审查和言论自由方面起到了至关重要的作用。 同时阅读:OpenAI和DeepMind与英国政府合作推进人工智能安全和研究 对人工智能监管的迫切性增加 尽管他在OpenAI的任期相对较短,但威尔纳的影响力却很大。他的专业知识被用来确保OpenAI的图像生成器DALL-E的负责任使用,并防止滥用,如生成式人工智能儿童色情制品的制作。然而,专家警告说,时间紧迫,行业需要迅速制定健全的政策和法规,以应对生成式人工智能的潜在滥用和有害应用。 同时阅读:欧盟的人工智能法案将在人工智能监管方面设定全球标准,亚洲国家保持谨慎态度 我们的观点 随着生成式人工智能的进步,强大的信任和安全措施变得越来越重要。就像Facebook早期的社区标准塑造了社交媒体的发展方向一样,OpenAI和更广泛的人工智能行业现在面临着确保人工智能的道德和负责任使用的责任。共同积极地应对这些挑战将对培养公众的信任以及负责任地引领人工智能的变革潜力至关重要。

Leave a Comment