Press "Enter" to skip to content

三种方式生成化智能可加强网络安全

人工分析师已经无法有效地抵御网络安全攻击的日益速度和复杂性。数据量太大了,无法通过手工筛查。

生成型人工智能,是我们这个时代最具变革性的工具,可以实现一种数字柔道的效果。它让公司能够将对抗压倒他们的数据的力量转化为使其防御更强大的力量。

企业领导人似乎已经准备好抓住眼前的机会。在一项最新调查中,首席执行官表示网络安全是他们三大最关注的问题之一,并认为生成型人工智能是一项主导技术,能够带来竞争优势。

生成型人工智能既带来风险,也带来好处。一篇早期的博客介绍了开始保护企业人工智能的六个步骤。

以下是生成型人工智能增强网络安全的三种方式。

从开发人员开始

首先,给开发人员一个安全的副驾驶。

每个人在安全领域都起着一定的作用,但并非每个人都是安全专家。因此,这是最具战略性的开始之一。

增强安全的最佳位置是在开发人员编写软件的前端。一个以安全专家为训练对象的人工智能助手可以帮助开发人员确保其代码符合安全最佳实践。

这种人工智能软件助手可以通过提供先前审查过的代码进行每天学习。它可以从以前的工作中汲取经验,帮助开发人员遵循最佳实践。

NVIDIA正在创建一个用于构建这样的副驾驶或聊天机器人的工作流程,用到了NVIDIA NeMo的组件,它是一个用于构建和自定义大型语言模型的框架。

无论用户是自定义他们自己的模型还是使用商业服务,一个安全助手只是将生成型人工智能应用于网络安全的第一步。

分析漏洞的代理

其次,让生成型人工智能帮助导航已知软件漏洞的茫茫大海。

每时每刻,公司都必须在成千上万个补丁中选择以减轻已知的攻击行为。这是因为每一行代码都可能有几十个甚至几千个不同的软件分支和开源项目的根源。

进一步分析漏洞的LLM可以帮助确定公司应该首先实施哪些补丁。它是一种特别强大的安全助手,因为它可以阅读公司使用的所有软件库,以及其支持的功能和API的策略。

为了测试这个概念,NVIDIA构建了一个用于分析软件容器的流水线,以查找漏洞。这个代理以高精确度确定需要修补的区域,将人工分析师的工作速度加快了4倍。

结论明确,现在是将生成型人工智能作为漏洞分析的第一响应者的时候了。

填补数据空白

最后,利用LLM来帮助填补网络安全领域不断扩大的数据空白。

由于敏感性太高,用户很少分享有关数据泄露的信息。这使得预测攻击变得困难。

这就是LLM的用武之地。生成型人工智能模型可以创建合成数据,模拟以前未曾出现的攻击模式。这样的合成数据还可以填补训练数据的空白,以便机器学习系统学习如何在攻击发生之前防御。

进行安全模拟

不要等待攻击者展示可能性。创建安全模拟来了解他们可能如何尝试渗透企业防御。

这种积极的防御是强大的安全项目的标志。对手已经在他们的攻击中使用生成型人工智能。现在是用户利用这一强大的技术进行网络安全防御的时候了。

为了展示可能性,另一个AI工作流程使用生成式AI来防御特定针对性的钓鱼邮件——这些精心选择的虚假电子邮件仅在2021年就使公司损失了约24亿美元。

该工作流生成了合成电子邮件,以确保有足够多的关于钓鱼邮件的良好示例。该AI模型在该数据上进行训练,通过NVIDIA Morpheus中的自然语言处理能力来理解传入电子邮件的意图,NVIDIA Morpheus是一个用于AI驱动的网络安全框架。

结果捕获到比现有工具多21%的钓鱼邮件。请查看我们的开发者博客或观看下面的视频以了解更多信息。

无论用户选择从哪个方面开始这项工作,自动化都至关重要,鉴于网络安全专家短缺以及公司需要保护的成千上万的用户和使用案例。

这三个工具——软件助手、虚拟漏洞分析师和合成数据模拟——是将生成式AI应用于每天都持续进行的安全旅程的绝佳起点。

但这仅仅是个开始。公司需要将生成式AI整合到其防御的各个层面。

参加网络研讨会以获取更多关于如何入门的详细信息。

Leave a Reply

Your email address will not be published. Required fields are marked *