在ChatGPT之后,每家公司都在努力制定自己的AI战略,但这很快引发了一个问题:安全性如何?
有些人可能对保护新技术感到不知所措。好消息是,今天已经有了一些政策和实践,这些都是很好的起点。
事实上,前进的道路在于扩展企业和云安全的现有基础。这是一个可以总结为六个步骤的旅程:
- 扩大对威胁的分析
- 拓宽应对机制
- 保护数据供应链
- 利用AI扩大努力
- 保持透明
- 持续改进

拓展视野
第一步是熟悉新的领域。
安全现在需要覆盖AI开发的整个生命周期。这包括新的攻击面,如训练数据、模型以及使用它们的人员和流程。
通过对已知类型的威胁进行推演,以识别和预测新出现的威胁。例如,攻击者可能会在云服务上训练模型时访问数据,试图改变AI模型的行为。
过去进行漏洞探测的安全研究人员和红队将再次成为重要资源。他们需要访问AI系统和数据,以识别和应对新的威胁,并帮助与数据科学人员建立良好的工作关系。
拓宽防御
在威胁情况清楚之后,确定对抗这些威胁的方法。
密切监控AI模型的性能。假设它会漂移,出现新的攻击面,就像传统安全防御会被攻破一样。
同时建立已经存在的PSIRT(产品安全事件响应团队)实践。
例如,NVIDIA发布了涵盖其AI产品组合的产品安全政策。包括Open Worldwide Application Security Project在内的一些组织已经发布了针对AI的关键安全要素的实施,例如用于识别传统IT威胁的常见漏洞枚举方法。
将传统的防御措施如下列应用于AI模型和工作流中:
- 保持网络控制与数据平面分离
- 删除任何不安全或个人身份信息数据
- 使用零信任安全和身份验证
- 定义适当的事件日志、警报和测试
- 在适当的地方设置流量控制
扩展现有保护措施
保护用于训练AI模型的数据集。它们既有价值又容易受到攻击。
再次,企业可以利用现有的做法。创建安全的数据供应链,类似于为软件创建的安全通道。对于训练数据,建立访问控制与保护其他内部数据的方式一样重要。
可能需要填补一些空白。今天,安全专家知道如何使用应用程序的哈希文件来确保没有人更改了它们的代码。但是,这个过程可能难以扩展到用于AI训练的以拍字节为单位的数据集。
好消息是,研究人员已经意识到这个需求,并正在努力开发工具来解决这个问题。
利用AI扩展安全性
AI不仅是需要防御的新攻击领域,也是一种新的强大安全工具。
机器学习模型可以检测到人类无法察觉的网络流量中的微小变化。这使得AI成为防止许多常用攻击(如身份盗窃、网络钓鱼、恶意软件和勒索软件)的理想技术。
NVIDIA Morpheus是一个网络安全框架,可以构建创建、读取和更新数字指纹以扫描多种威胁的AI应用程序。此外,生成式AI和Morpheus还可以实现新的检测针对性网络钓鱼攻击的方法。

安全需要透明度
透明度是任何安全策略的重要组成部分。让客户了解已经制定的任何新的AI安全政策和实践。
例如,NVIDIA在其加速软件集线上中发布了有关AI模型的详细信息。这些模型卡片类似于真实贷款陈述,描述了AI的特性、它们训练所使用的数据以及其使用的任何限制条件。
NVIDIA使用了一个扩展的字段集来提供模型卡片,以便用户在将其投入生产之前清楚了解神经网络的历史和限制。这有助于提升安全性、建立信任并确保模型的稳健性。
定义旅程而非目的地
这六个步骤只是旅程的开始。这样的过程和政策需要不断发展。
机密计算的新兴实践,例如,正在扩展对云服务的安全性,因为AI模型通常是在云中训练和运行的。
行业已经开始看到基本版本的AI模型代码扫描器。它们是即将到来的迹象。团队需要时刻关注最佳实践和工具的出现。
在这个过程中,社区需要分享所学到的知识。最近的生成式红队挑战就是一个很好的例子。
最终,这是关于创建一种集体防御。我们都在一步步地共同走向AI安全。