Press "Enter" to skip to content

Tag: cybersecurity

三种方式生成化智能可加强网络安全

人工分析师已经无法有效地抵御网络安全攻击的日益速度和复杂性。数据量太大了,无法通过手工筛查。 生成型人工智能,是我们这个时代最具变革性的工具,可以实现一种数字柔道的效果。它让公司能够将对抗压倒他们的数据的力量转化为使其防御更强大的力量。 企业领导人似乎已经准备好抓住眼前的机会。在一项最新调查中,首席执行官表示网络安全是他们三大最关注的问题之一,并认为生成型人工智能是一项主导技术,能够带来竞争优势。 生成型人工智能既带来风险,也带来好处。一篇早期的博客介绍了开始保护企业人工智能的六个步骤。 以下是生成型人工智能增强网络安全的三种方式。 从开发人员开始 首先,给开发人员一个安全的副驾驶。 每个人在安全领域都起着一定的作用,但并非每个人都是安全专家。因此,这是最具战略性的开始之一。 增强安全的最佳位置是在开发人员编写软件的前端。一个以安全专家为训练对象的人工智能助手可以帮助开发人员确保其代码符合安全最佳实践。 这种人工智能软件助手可以通过提供先前审查过的代码进行每天学习。它可以从以前的工作中汲取经验,帮助开发人员遵循最佳实践。 NVIDIA正在创建一个用于构建这样的副驾驶或聊天机器人的工作流程,用到了NVIDIA NeMo的组件,它是一个用于构建和自定义大型语言模型的框架。 无论用户是自定义他们自己的模型还是使用商业服务,一个安全助手只是将生成型人工智能应用于网络安全的第一步。 分析漏洞的代理 其次,让生成型人工智能帮助导航已知软件漏洞的茫茫大海。 每时每刻,公司都必须在成千上万个补丁中选择以减轻已知的攻击行为。这是因为每一行代码都可能有几十个甚至几千个不同的软件分支和开源项目的根源。 进一步分析漏洞的LLM可以帮助确定公司应该首先实施哪些补丁。它是一种特别强大的安全助手,因为它可以阅读公司使用的所有软件库,以及其支持的功能和API的策略。 为了测试这个概念,NVIDIA构建了一个用于分析软件容器的流水线,以查找漏洞。这个代理以高精确度确定需要修补的区域,将人工分析师的工作速度加快了4倍。 结论明确,现在是将生成型人工智能作为漏洞分析的第一响应者的时候了。 填补数据空白 最后,利用LLM来帮助填补网络安全领域不断扩大的数据空白。 由于敏感性太高,用户很少分享有关数据泄露的信息。这使得预测攻击变得困难。 这就是LLM的用武之地。生成型人工智能模型可以创建合成数据,模拟以前未曾出现的攻击模式。这样的合成数据还可以填补训练数据的空白,以便机器学习系统学习如何在攻击发生之前防御。 进行安全模拟 不要等待攻击者展示可能性。创建安全模拟来了解他们可能如何尝试渗透企业防御。…

Leave a Comment

在人工智能增强影像时代如何保护您的数字身份

人工智能在生成高度逼真的图像和视频方面取得了显著进展这些由人工智能生成的视觉内容可以用于创造看似真实的虚假内容,导致严重后果例如,深度伪造技术使恶意行为者可以将一个人的脸超级融合到别人的身体上,几乎不可能区分真假…

Leave a Comment

AI时间杂志发布《2023年网络安全趋势》电子书,揭示了威胁环境不断演变的关键见解

10月12日,美国旧金山——AI Time Journal,一家处于人工智能(AI)前沿的重要出版物,因其最新电子书《网络安全趋势2023》的推出而感到高兴这篇综合性资源探讨了与网络安全相关的各种主题,为专业人士、爱好者和决策者提供了宝贵的见解和分析… AI Time Journal发布了《网络安全趋势2023》电子书,揭示了不断演变的威胁环境中的关键见解阅读更多 »

Leave a Comment

六步走向人工智能安全

在ChatGPT之后,每家公司都在努力制定自己的AI战略,但这很快引发了一个问题:安全性如何? 有些人可能对保护新技术感到不知所措。好消息是,今天已经有了一些政策和实践,这些都是很好的起点。 事实上,前进的道路在于扩展企业和云安全的现有基础。这是一个可以总结为六个步骤的旅程: 扩大对威胁的分析 拓宽应对机制 保护数据供应链 利用AI扩大努力 保持透明 持续改进 AI安全是在现有的企业保护基础上构建的。 拓展视野 第一步是熟悉新的领域。 安全现在需要覆盖AI开发的整个生命周期。这包括新的攻击面,如训练数据、模型以及使用它们的人员和流程。 通过对已知类型的威胁进行推演,以识别和预测新出现的威胁。例如,攻击者可能会在云服务上训练模型时访问数据,试图改变AI模型的行为。 过去进行漏洞探测的安全研究人员和红队将再次成为重要资源。他们需要访问AI系统和数据,以识别和应对新的威胁,并帮助与数据科学人员建立良好的工作关系。 拓宽防御 在威胁情况清楚之后,确定对抗这些威胁的方法。 密切监控AI模型的性能。假设它会漂移,出现新的攻击面,就像传统安全防御会被攻破一样。 同时建立已经存在的PSIRT(产品安全事件响应团队)实践。 例如,NVIDIA发布了涵盖其AI产品组合的产品安全政策。包括Open Worldwide Application Security Project在内的一些组织已经发布了针对AI的关键安全要素的实施,例如用于识别传统IT威胁的常见漏洞枚举方法。 将传统的防御措施如下列应用于AI模型和工作流中:…

Leave a Comment

英伟达支持华盛顿努力确保人工智能安全

在白宫的一次活动中,NVIDIA宣布支持拜登政府制定的自愿承诺,以确保先进的人工智能系统安全、可靠和值得信赖。 同一天,NVIDIA首席科学家比尔·戴利在美国参议院的一个小组委员会上作证,寻求有关涵盖生成式人工智能的潜在立法的意见。此外,NVIDIA创始人兼首席执行官黄仁勋将于周三与参议院全体成员参加一场针对人工智能的闭门会议,与其他行业领袖共同出席。 包括Adobe、IBM、Palantir和Salesforce在内的七家公司与NVIDIA一起支持了拜登-哈里斯政府于7月发布的八项协议,这些协议得到了亚马逊、Anthropic、Google、Inflection、Meta、Microsoft和OpenAI的支持。 白宫表示,这些承诺旨在在制定监管规定之前推进共同标准和最佳实践,以确保生成式人工智能系统的安全。它们包括: 在部署之前测试人工智能产品的安全性和功能; 保护人工智能模型免受网络和内部威胁; 利用人工智能帮助解决从癌症到气候变化等社会最大的挑战。 戴利分享NVIDIA的经验 在他的证词中,戴利告诉参议院小组委员会,政府和行业应该在鼓励人工智能创新与确保模型的负责部署之间取得平衡。 该小组委员会的听证会“人工智能的监督:人工智能规则”是世界各地政策制定者试图识别和解决生成式人工智能潜在风险的行动之一。 今年早些时候,该小组委员会听取了Anthropic、IBM和OpenAI等领导人以及学术界人士(如被认为是人工智能奠基人之一的蒙特利尔大学教授Yoshua Bengio)的证词。 戴利是NVIDIA研究部门全球300多人的领导者,周二与微软总裁兼副主席布拉德·史密斯共同出席作证。戴利的证词简要概括了NVIDIA在过去二十年中在人工智能进化中的独特角色。 加速计算引发人工智能 他描述了NVIDIA如何在1999年发明了GPU作为图形处理单元,然后在2006年通过CUDA编程软件使其适应更广泛的并行处理角色。随着时间的推移,各个科学和技术计算领域的开发人员发现这种新形式的加速计算可以显著推进他们的工作。 在此过程中,研究人员发现GPU也非常适合于人工智能的神经网络,因为它们需要大规模的并行处理。 2012年,经过在两个NVIDIA GPU上训练,AlexNet模型展示出类似人类的图像识别能力。这一结果帮助推动了使用GPU取得了十年的快速进展,导致了ChatGPT和其他数亿人使用的生成式人工智能模型。 戴利说,今天,加速计算和生成式人工智能展示了改变行业、应对全球挑战并深刻造福社会的潜力。 人工智能的潜力和限制 戴利在书面证词中提供了人工智能如何使专业人士在商业、医疗保健和气候科学等不同领域比他们想象中更好地完成工作的例子。 像任何技术一样,人工智能产品和服务存在风险,并受到旨在减轻这些风险的现有法律和法规的约束。 行业在负责任地部署人工智能方面也发挥着作用。当开发人员训练人工智能模型并定义其输出时,他们会为模型设定限制。 戴利指出,NVIDIA于4月发布了NeMo Guardrails,这是开源软件开发人员可以用来指导生成式人工智能应用程序生成准确、适当和安全的文本响应的软件。他还表示,NVIDIA还制定了内部风险管理指南,用于管理人工智能模型。…

Leave a Comment

人工智能对于医疗保健网络安全至关重要

“医疗机构是网络犯罪分子攻击最频繁的目标之一尽管越来越多的IT部门投资于网络安全保障,但恶意方仍然会侵入基础设施,往往造成灾难性后果一些攻击迫使受影响的机构将来的患者转到其他地方接受治疗,因为在计算机系统和连接设备无法运行时无法为他们提供治疗大规模的数据泄露[…]”

Leave a Comment

印度如何利用尖端人工智能来应对支付欺诈

在当今数字化时代,与在线交易相关的欺诈行为日益增多,给金融机构和监管机构带来了重大挑战。印度唯一身份认证机构(UIDAI)采取了积极的方法来解决付款欺诈问题,特别是与Aadhaar启用的支付系统(AePS)相关的欺诈问题。UIDAI利用人工智能(AI)和机器学习(ML)的力量,开发了围绕指纹和面部识别的创新技术。让我们深入了解这些AI措施如何帮助遏制付款欺诈并确保您的资金安全。 还阅读:基于AI的“Deepfake”欺诈:喀拉拉邦对抗骗子的持续战斗 AI驱动的指纹细节记录 – 指纹图像记录(FMR-FIR)模态 为了对抗Aadhaar认证过程中使用克隆指纹的行为,UIDAI推出了一种基于内部AI / ML技术的FMR-FIR模态。这种复杂的系统可以区分真实或“活体”指纹和克隆指纹,为AePS交易提供了额外的安全层。通过在认证过程中检查指纹的活体性,这种基于AI的解决方案显著减少了欺诈分子操纵指纹数据以非法访问银行账户的情况。 还阅读:在AI时代如何检测和处理Deepfake? 面部识别在交易认证中的作用 与印度国家支付公司(NPCI)合作,Airtel支付银行与UIDAI携手推出了基于面部识别的AePS交易认证措施。这种先进的面部识别技术由UIDAI自主开发,进一步增强了数字交易的安全性。它通过面部特征验证用户的身份,确保只有真实的个人才能进行金融交易,有效地阻止了试图利用系统的欺诈分子。 支付欺诈的上升趋势 印度的支付欺诈规模正以令人担忧的速度增长,如内政部和财政委员会的报告所述。2020-21财年报告了262,000起各种金融犯罪案件,而到2022年,这一数字激增至惊人的694,000起。其中,与支付相关的欺诈案件经历了显著增加,2023财年达到了近2000万起。这些统计数据凸显了需要强大的基于AI的解决方案来保护数字交易并保护用户免受潜在的网络犯罪的迫切需求。 还阅读:欺诈GPT:AI驱动的网络犯罪工具的惊人崛起 业务代表的挑战 虽然基于AI的技术在防止某些类型的欺诈方面已经证明有效,但它们并非没有限制。一个重要的挑战是应对由业务代表(BC)实施的欺诈行为。这些是配备生物识别POS机(PoS)的非正式银行代理,充当小型自动柜员机。在某些情况下,业务代表会虚报向个人发放的金额,使他们容易受到金融剥削。特别是在农村地区,缺乏意识加剧了这种情况,因此教育用户有关安全银行操作的重要性尤为关键。 还阅读:网络犯罪分子使用WormGPT侵犯电子邮件安全 UIDAI持续努力打击AePS欺诈 UIDAI致力于通过不断完善其基于AI的解决方案来保持领先于欺诈分子。该机构积极调查与AePS交易相关的投诉,2021年11月至2023年3月接到了超过2,000起投诉。通过与银行、政府机构和其他利益相关方合作,UIDAI旨在加强数字支付系统的安全性,并赢得印度数百万用户的信任。 还阅读:Airtel开发AI工具识别欺诈钓鱼信息 我们的观点 在快速数字化的世界中,保护数字交易的重要性不言而喻。UIDAI在打击支付欺诈方面采用的AI和ML技术的采用,标志着确保数百万印度人金融利益安全的重要进展。UIDAI通过FMR-FIR模态和面部识别等创新措施引领着确保更安全、更可靠的数字支付生态系统。在我们应对数字领域的复杂性时,让我们拥抱这些进步,并共同努力保护自己和我们辛苦赚来的钱免受网络犯罪分子的侵害。我们可以共同建立一个更安全、更值得信赖的数字未来。

Leave a Comment