元数据在现代数据管理中至关重要,对于整合、质量、安全至关重要,并且在数字化转型计划中起着关键作用
Leave a CommentTag: data security
在本文中,我们将深入探讨人工智能的伦理考虑以及如何负责和公正地在医疗保健领域中运用和利用人工智能的力量
Leave a Comment人工智能(AI)正在引领下一波革命性的技术变革。尽管AI的能力令人着迷,但人们对其潜在风险的担忧也在增加。虽然像ChatGPT这样的AI聊天机器人处于前沿,只需一个提示就可以简化任务,但像PassGAN这样的工具却增加了网络安全风险。随着人们接受人工智能,了解潜在的网络安全风险以及如何在这个不断发展的领域中保护自己至关重要。本文讨论了如何使用AI工具来破解密码以及如何保护自己免受此类攻击的方法。 还阅读:黑客使用WormGPT攻破电子邮件安全 AI的惊人力量 AI进入我们的日常生活,带来了令人敬畏和担忧之处。虽然AI能够为增长和创新带来巨大机遇,但它也有一定的弱点需要解决。最近,人们开始关注AI在破解网络安全(尤其是密码)方面的潜力。最近的一项研究发现,AI能够在不到60秒的时间内破解一些最常用的密码。 还阅读:FraudGPT:AI驱动的网络犯罪工具的惊人崛起 揭示威胁 AI动力密码破解工具所带来的威胁程度令人震惊。网络安全公司Home Security Heroes进行了一项全面的研究,揭示了AI在这个领域的强大能力。他们的研究结果显示,专门的AI工具,特别是AI动力的PassGAN(密码生成对抗网络),不仅可以破解密码,而且可以以惊人的效率进行破解。 还阅读:黑客在DEF CON上用恶作剧揭示了AI的漏洞 巧妙的方法论 开创性的PassGAN工具利用了生成对抗网络(GAN)这一机器学习技术。它从过去的数据泄露中学习真实密码的模式和分布,使其能够创建多个组合来尝试在最短时间内破解用户的密码。 令人恐惧的统计数据 该研究的结果对所有互联网用户而言是个警钟。令人震惊的是,超过一半(51%)的常用密码可以在不到60秒的时间内被破解。情况迅速升级-在一个小时内,这个百分比跳至61%。更令人不安的是,71%的密码可以在一天内被破解,令人惊讶的是,81%的密码可以在一个月内被破解。 还阅读:中国黑客入侵微软云,潜伏一个多月未被察觉 加强你的防御 考虑到这个令人不安的现实,保护您的数字存在从未如此重要。该研究强调,长度少于七个字符的密码,即使包含符号,也可以在不到六分钟的时间内解锁。无论多么复杂,一个包含数字、大写字母、小写字母和符号的六个字符的密码都可以被像PassGAN这样的AI立即破解。 还阅读:谷歌推出面向网络安全的生成式AI AI无法破解的密码类型:力求无敌 然而,还没有完全失去希望。该研究强调,超过18个字符的密码是抵御AI工具的理想防御措施。如果密码纯粹是数字,AI将花费近一年的时间来破解它。或者,一个包含数字、小写字母、大写字母和符号组合的18个字符的密码将令AI为之困惑整整六万亿年-也就是六百万亿年! 如何保护密码免受AI攻击 为了增强对人类和AI威胁的防御,制定密码时请遵循以下最佳实践: 长度至关重要:选择至少15个字符的密码。 混合使用:结合大写字母、小写字母、数字和符号。…
Leave a Comment在一系列新变故中,流行的视频会议平台Zoom卷入了一场涉及使用客户数据训练人工智能(AI)模型的法律困境。争议的焦点在于其最近的条款和条件,引发了用户的愤怒,并引发了与数据隐私和同意相关的重要问题。让我们一起剖析Zoom的数据实践的发展故事以及对其用户和更广泛的数字领域可能产生的影响。 还阅读:Zoom融合人工智能,实现无缝视频会议 欺骗性历史再访:Zoom在安全声明方面的斗争 Zoom与法律纠纷的遭遇并非新现象。三年前,该公司与联邦贸易委员会(FTC)就涉嫌欺骗性营销与安全声明达成了和解。指控源于其加密强度夸大的指责。快进到现在,Zoom正面临另一个涉及隐私政策和使用客户数据进行AI模型训练的法律纠纷。 还阅读:ChatGPT被联邦贸易委员会调查可能存在的危害 隐私争议:一系列事件 最近的争议围绕Zoom的条款和条件中的一项条款展开,该条款于2023年3月添加。一篇Hacker News的帖子揭示了这一条款,似乎允许Zoom在不提供选择退出选项的情况下使用客户数据进行AI模型训练。这一揭示引发了社交媒体平台上的一场愤怒风暴,引发了人们对隐私和数据使用的担忧。 还阅读:在使用生成AI工具时保护您的隐私的6个步骤 解析法律术语:该条款意味着什么? 经过仔细检查,一些专家认为,有争议的“无选择退出”条款仅适用于Zoom所称的“服务生成的数据”。这包括遥测数据、产品使用数据和诊断数据。然而,该条款似乎并不涵盖平台上的所有用户活动和对话。尽管如此,这一争议引发了关于使用客户输入来训练AI模型可能带来的潜在影响的激烈讨论。 还阅读:您在线发布的所有内容现在都属于AI,谷歌宣称 隐私担忧和潜在的岗位冗余 Zoom可能重新利用客户输入来训练AI模型的影响引发了重大担忧。在快速发展的人工智能时代,人们担心这些数据最终可能会导致某些工作变得多余。个人贡献被用于可能影响生计的方式,给情况增加了复杂性。 还阅读:OpenAI首席执行官Sam Altman:AI展示了其威力,工作岌岌可危 欧洲法律环境和GDPR的影响 Zoom的法律困境超出了用户的愤怒。欧盟的数据保护法律,如《通用数据保护条例》(GDPR)和电子隐私指令,开始发挥作用。这些法规为保护用户数据和赋予用户对其信息使用的权利建立了一个框架。这场争议引发了有关Zoom的做法是否符合这些严格的欧盟法律的问题。 还阅读:欧盟的人工智能法案将确定全球AI监管标准,亚洲国家保持谨慎 Zoom的回应:澄清和矛盾 Zoom试图通过发布更新和声明来应对日益增长的争议,澄清其立场。它强调不会在未经同意的情况下使用音频、视频和聊天客户内容来训练AI模型。然而,批评人士认为,Zoom使用的语言仍然不清楚,并且存在解释的余地。在某些情况下,该公司为减轻担忧所做的努力引发了更多的困惑。 法律框架的冲突:GDPR vs. ePrivacy 专家指出,Zoom的行动将美国的数据保护实践与欧盟法律相结合。这导致潜在的矛盾,特别是涉及GDPR中的同意和目的限制原则。这些框架之间的冲突对于Zoom的数据实践是否符合欧洲标准具有影响。 还阅读:美国国会采取行动:两项新法案建议对人工智能进行监管…
Leave a Comment由伦敦大学、杜伦大学和萨里大学的研究人员开发的一种开创性的人工智能系统将数据安全问题提升到了一个新的水平。这种尖端算法可以通过音频记录窃听您的键盘,仅凭声音录音就能解读您的打字。本文深入探讨了这种人工智能创新的工作原理、潜在风险以及如何保护自己免受这种新型数据安全威胁。 还可以阅读:OpenAI领导人谈论人工智能的风险,提出治理方法 人工智能键盘窃听突破 研究人员利用人工智能的力量通过音频记录来监听按键。他们的人工智能模型在MacBook Pro键盘上进行了测试,准确率达到了93-95%。这意味着该算法可以通过分析按键所产生的声音准确地检测出哪些键被按下。 声学侧信道攻击的兴起 该研究强调了手机和笔记本等日常设备中麦克风的普及性。曾经被认为无害的这些麦克风现在可以被用于声学侧信道攻击。虽然以前存在基于音频的按键检测尝试,但这种基于人工智能的方法将精度提升到了一个新的水平,甚至超过了硬件方法。 还可以阅读:FraudGPT:AI驱动的网络犯罪工具的惊人崛起 音频算法的运作方式 研究人员首先对MacBook Pro键盘上的每个按键按下的声音进行了25次录制,并记录了音频样本。然后他们将这些音频样本转换成频谱图,这些频谱图是声音频率随时间变化的可视化表示。人工智能模型经过训练,可以识别与这些频谱图中的各种按键相关的独特模式。 释放人工智能的按键预测 在对成千上万个音频片段进行训练后,人工智能模型变得善于辨识每个按键的独特声学特征。当应用于新的音频记录时,人工智能可以准确地预测按键。在MacBook Pro键盘上进行训练时,该算法在测试中达到了93-95%的准确率。 数据安全问题和保护措施 尽管这种人工智能的进步提供了令人难以置信的见解,但它也带来了严重的安全风险。攻击者可能会窃取敏感信息,如密码和消息。防范这种威胁的方法包括改变打字风格、在扬声器上播放声音、使用触摸屏键盘或修改键盘的声学特性,使人工智能模型失效。 还可以阅读:4家科技巨头——OpenAI、谷歌、微软和Anthropic联合保障安全人工智能 我们的观点 人工智能突破了计算机可以根据音频记录解读您的按键的能力,这是令人惊讶和令人担忧的。它突显了数据安全威胁不断演变的现实,并展示了人工智能揭示新形式信息的力量。随着技术的进步,保护数据隐私需要创新的策略来对抗新出现的漏洞。在我们拥抱人工智能的潜力的同时,我们也必须致力于加强保护我们敏感信息免受窥探的防线。
Leave a Comment在互联网的一个黑暗而不祥的角落,网络犯罪分子再次利用人工智能的力量推进其恶意议程。继臭名昭著的WormGPT之后,又有一个新角色出现了,它的名字是FraudGPT。这个邪恶的AI工具专门设计用于攻击目的,使威胁行为者能够策划复杂的网络犯罪,从钓鱼邮件到创建不可检测的恶意软件。随着网络安全界迎接又一个挑战,让我们深入探讨FraudGPT的世界以及对在线安全的潜在影响。 也可阅读:犯罪分子使用人工智能冒充亲人 担心FraudGPT的崛起:黑暗网络的轰动 就在网络安全界正在从WormGPT的影响中恢复过来之际,FraudGPT作为最新一款网络犯罪生成的AI工具出现了。这一存在被Netenrich安全研究员Rakesh Krishnan揭露,他对这个新的AI威胁发出了警报。FraudGPT在暗网市场和秘密的Telegram频道上提供了一系列邪恶的攻击能力。 也可阅读:网络犯罪分子使用WormGPT侵犯电子邮件安全 FraudGPT背后的行为者 在匿名的可怕幕布后面,一个名为“CanadianKingpin”的神秘行为者声称负责制作FraudGPT。这个AI机器人专门为网络犯罪分子提供各种工具和功能,以适应他们的恶意意图。从钓鱼邮件到破解工具和卡片欺诈,FraudGPT是一个落入错误手中的强大武器。 订阅和费用 网络犯罪的地下世界并不靠善意运作,而是由利润驱动。FraudGPT也不例外,每月订阅费用为200美元,六个月和一年的订阅费用分别为1000美元和1700美元,享有折扣。这种付费模式使得那些愿意利用其能力的人更易接触到它。 揭示威胁 负责开发FraudGPT的确切大型语言模型(LLM)仍然是一个谜。然而,它的影响远非隐形。通过3000多个确认的销售和评论,网络犯罪分子正在找到使用其能力进行恶意目的的创造性方式。从编写不可检测的恶意代码到识别泄漏和漏洞,FraudGPT对网络安全构成严重威胁。 也可阅读:PoisonGPT:Hugging Face的LLM散播假新闻 利用AI进行网络犯罪活动 网络犯罪分子正在利用OpenAI ChatGPT等AI工具的可用性,创建没有道德保障的对抗性变体。FraudGPT就是这种趋势的典型,使新手行为者能够扩大规模发动复杂的钓鱼和商业电子邮件妥协攻击。 也可阅读:在AI时代如何检测和处理Deepfake? 升级的钓鱼即服务(PhaaS)模式 钓鱼长期以来一直是网络犯罪分子钟爱的技术,但FraudGPT将其提升到一个全新的水平。其强大的AI驱动能力成为新手行为者发动令人信服的钓鱼和商业电子邮件妥协(BEC)攻击的跳板。潜在的后果包括窃取敏感信息和未经授权的电汇。 也可阅读:在使用生成AI工具时保护您的隐私的6个步骤 伦理困境 像ChatGPT这样的AI工具可以与伦理保障一起开发,但FraudGPT证明了这些保障可以轻易被规避。正如Rakesh Krishnan所指出的那样,实施深层防御策略对于应对这些快速移动的威胁至关重要。组织必须利用所有可用的安全遥测进行快速分析,以在网络威胁演变为勒索软件攻击或数据外泄之前识别和挫败网络威胁。 也可阅读:Airtel开发AI工具识别欺诈钓鱼信息…
Leave a CommentOpenAI,这家开创性的人工智能公司,正在发生重大变革,该公司通过创新技术(如ChatGPT)向世界介绍了生成式人工智能。在LinkedIn上的最新公告中,OpenAI的信任与安全负责人戴夫·威尔纳(Dave Willner)透露,他已辞去他的职务,现在将担任咨询顾问。这一离职正值关于生成式人工智能的监管和影响问题引起关注的关键时刻。让我们深入探讨戴夫·威尔纳的离职以及OpenAI和整个人工智能行业在确保信任和安全方面面临的挑战。 同时阅读:谷歌推出SAIF框架以提高AI模型的安全性 领导层变革 在担任信任与安全负责人一年半后,戴夫·威尔纳决定离开OpenAI的职位。他表示,他的决定是出于与年幼家庭共度更多时间的愿望。OpenAI对他的贡献表示感激,并表示他们正在积极寻找替代人选。在过渡期间,OpenAI的首席技术官米拉·穆拉蒂(Mira Murati)将临时担任责任。 生成式人工智能的信任与安全 生成式人工智能平台的崛起引发了人们的兴奋和关注。这些平台可以根据简单的用户提示快速生成文本、图像、音乐等。然而,它们也引发了关于如何监管这种技术并减轻潜在有害影响的重要问题。信任和安全已成为围绕人工智能讨论的重要方面。 同时阅读:希望、担忧和人工智能:消费者对人工智能工具态度的最新调查结果 OpenAI对安全和透明度的承诺 鉴于这些问题,OpenAI的总裁格雷格·布洛克曼(Greg Brockman)计划与知名科技公司的高管一起出席白宫,共同支持自愿承诺共享安全和透明度目标。这种积极的做法是在一项正在制定中的人工智能行政命令之前采取的。OpenAI认识到共同解决这些问题的重要性。 同时阅读:OpenAI引入超级对齐:为安全和一致的人工智能铺平道路 ChatGPT发布后的高强度阶段 戴夫·威尔纳关于离职的LinkedIn帖子没有直接提及OpenAI即将推出的新举措。相反,他集中关注他在ChatGPT发布后工作进入的高强度阶段。作为人工智能领域的先驱之一,他为OpenAI团队在他任职期间取得的成就感到自豪。 同时阅读:ChatGPT制定规则以自我约束 丰富的信任与安全专业背景 戴夫·威尔纳在信任与安全领域拥有丰富的经验。在加入OpenAI之前,他曾在Facebook和Airbnb担任重要职务,领导信任与安全团队。在Facebook,他在确立公司的初步社区标准立场、塑造其内容审查和言论自由方面起到了至关重要的作用。 同时阅读:OpenAI和DeepMind与英国政府合作推进人工智能安全和研究 对人工智能监管的迫切性增加 尽管他在OpenAI的任期相对较短,但威尔纳的影响力却很大。他的专业知识被用来确保OpenAI的图像生成器DALL-E的负责任使用,并防止滥用,如生成式人工智能儿童色情制品的制作。然而,专家警告说,时间紧迫,行业需要迅速制定健全的政策和法规,以应对生成式人工智能的潜在滥用和有害应用。 同时阅读:欧盟的人工智能法案将在人工智能监管方面设定全球标准,亚洲国家保持谨慎态度 我们的观点 随着生成式人工智能的进步,强大的信任和安全措施变得越来越重要。就像Facebook早期的社区标准塑造了社交媒体的发展方向一样,OpenAI和更广泛的人工智能行业现在面临着确保人工智能的道德和负责任使用的责任。共同积极地应对这些挑战将对培养公众的信任以及负责任地引领人工智能的变革潜力至关重要。
Leave a Comment介绍 数据在商业世界中扮演着至关重要的角色。可以说,没有数据分析、预测和精细规划,很难想象这个世界。95%的C级高管认为数据是业务战略不可或缺的一部分。毕竟,这需要深入了解,释放出更大的可能性,这对任何组织来说都是改进决策必不可少的。但要拥有这一切,你必须了解数据管理在其中不可或缺的作用。什么是数据管理?继续阅读,了解所有相关内容! 组织中的数据管理是什么? 数据管理是为组织的数据分析操作收集、组织、转换和存储数据的过程。该过程仅确保各种目的(如获取见解和规划营销活动)的干净、良好管理的数据。当数据易于查找、可视化和调整时,它有助于组织获得可操作的见解,并做出知情的决策。 关键组成部分和目标 有效的数据处理和控制是数据管理的几个组成部分和目标的产物,其中每个因素都鼓励特定的计划或下一步行动。因此,现在你已经知道了它是什么,以下是不同的方面和目标,它们将其实践付诸行动: 数据质量 确保数据的质量和准确性是主要目标之一。这涵盖了实施过程和控制来验证和清理数据、识别和纠正错误以及消除不一致的记录。高数据质量标准增强了准确信息的可靠性,有助于决策、报告和分析。 数据安全 谈到数据管理是什么,就不能不提安全。防止未经授权的访问、侵犯和丢失数据是数据管理的重要目标。这包括实施安全措施,如加密、用户身份验证、访问控制和数据备份策略。保护数据使组织能够保持客户的信任、遵守数据保护法规并应对潜在风险。 数据治理 数据治理意味着在组织内部管理和控制数据资产。它旨在建立定义管理数据的角色、责任和流程的政策、程序和框架。实行数据治理的组织比不实行数据治理的组织更有信心(增加了42%)。它包括定义数据所有权、建立数据标准并确保遵守法规。 数据可访问性 在数据管理中,一个很好的关注点是确保数据易于授权用户访问和使用。组织建立高效的数据存储和检索机制,实施数据归档和备份策略,并优化数据基础设施和系统,使可用性和可访问性变得简单。这导致了提高运营效率和改进决策。 数据管理生命周期 数据管理生命周期是在不同阶段管理数据。它涵盖了各种实践,以发挥数据的最大潜力。下面是生命周期的概述: 数据收集:在基础阶段,从各种来源(如内部系统、外部合作伙伴或公共存储库)收集数据。可以执行数据质量检查和验证过程,以确保数据的准确性和完整性。 数据存储:现在,数据已经收集完毕,是时候存储和组织数据了。这个阶段涉及确定适当的数据存储工具和技术、数据库设计、数据建模和索引策略。此阶段还实施数据安全措施,如访问控制和加密。 数据转换:往往需要将数据集成和转换为全面的格式,以进行适当的分析。此DMLC阶段包括数据清洗、数据集成、数据转换和数据丰富流程。 数据归档:在数据发挥其主要作用后,最好将其归档或保留以供将来使用或遵守合规要求。此过程涉及制定数据保留政策、确保存储期间的数据安全以及实施不同的长期数据保留策略。 数据处理:数据不再需要了吗?它已经完成了它的目的吗?如果是,那么现在就是时候舍弃它了。在最后阶段,组织处理不相关的数据,这主要是为了保护隐私和遵守数据保护法规。 关键概念 在数据管理中,有各种重要的概念结合在一起,以确保组织、处理和利用数据的有效性。以下是四个基本概念: 数据治理 数据治理涉及组织内数据资源的整体管理。它包括定义数据政策、设置数据标准、维护数据质量和完整性以及分配责任。…
Leave a Comment