马丽娅·马克斯特德是Azeria Labs的创始人,专注于移动和物联网安全的安全研究员,她是BlackHat 2023大会的开场主题演讲嘉宾,演讲题目是《AI时代的守护者:航行明日的网络安全领域》。马克斯特德提供了对人工智能如何在未来几年改变网络安全的启发性见解。尽管人工智能带来了许多好处,但它也带来了开发人员必须理解以保护系统安全的新威胁。
正如马克斯特德所描述的,像ChatGPT这样的人工智能聊天机器人似乎在一夜之间变得非常流行。然而,企业对将敏感数据暴露给这些外部服务存在合理的担忧。作为回应,一种新的面向企业内部的人工智能开发平台迅速崛起。
这导致了一种未来的情景,即人工智能助手可以广泛访问内部系统以提高生产力。然而,自主决策能力引发了重大的安全问题。就像身份和访问管理保护人类用户一样,我们需要新的保障措施来保护人工智能代理。
多模态人工智能可以综合图像、文本、语音等数据,扩大了潜在的攻击面。恶意指令可能潜伏在任何输入渠道中,难以察觉。保护人工智能系统将需要超越目前的做法,进行整体数据验证和净化。
谢尔盖恩科警告称,人工智能可能通过自动处理互联网数据被利用。例如,一台被指示创建新应用程序的人工智能代理可能会下载包含后门的在线随机代码。吸收外部数据的能力是基础性的,但也具有危险性。
一个突出的挑战是人工智能决策缺乏透明度。即使对开发人员来说,响应背后的确切逻辑通常也是难以理解的。这强调了需要可解释的人工智能,以阐明如何得出结论。否则,检测操纵结果或解决故障将变得不可能。
马克斯特德强调,虽然人工智能可能不会取代安全专业人员的需求,但新的技能将供不应求。专家必须学习诸如对抗性机器学习等技术,以加强人工智能系统的安全性。了解人工智能的复杂性将成为有效的网络安全的必备条件。
积极的开发人员应该采用零信任网络原则来应对人工智能,进行强大的输入验证,部署人工智能沙盒,持续监测异常,并严格测试边缘情况。有创造力的黑客可能会找到开发人员尚未想到的欺骗人工智能的方法。
她总结说,人工智能并不会取代安全工作,能够利用人工智能增强网络安全的专业人员的价值将会增加。具备构建防止操纵的机器学习系统的能力的开发人员将能够在算法的未来引领我们。
更深入地看,主题演讲的核心主题之一是“保护人工智能免受世界的侵害”,以确保安全性。摄取实时、不受控制的数据的人工智能代理需要具备抵御攻击的坚固防线。
对于开发人员的一些建议包括:
- 将人工智能与公共互联网隔离,并通过安全堆栈(如WAF、DLP系统和沙盒环境)过滤输入。
- 主动监视API调用、数据库查询和人工智能系统内部的信息流,以检测操纵的异常。
- 实施强大的访问控制,规定人工智能可以触及的数据和可以自主执行的操作。零信任原则适用。
- 持续调整机器学习模型,以检测像对抗性示例和数据污染这样的新型攻击,旨在误导人工智能。
- 在部署人工智能之前进行广泛的伦理测试,以发现偏见、滥用潜力和意外结果。模型的透明度至关重要。
- 采用“DevSecOps”方法,将安全实践深度融入机器学习生命周期。
- 利用SLSA等原则确保软件供应链安全,以保证人工智能组件和依赖的完整性。
- 对训练数据、模型和流程实施严格的来源追踪,以实现审计和可重现性。
- 构建模型监控能力,以发现问题,如漂移、退化和异常。
马克斯特德强调,昨天的安全实践对于充斥着人工智能的未来来说是不够的。开发人员在人工智能普及之前有一个机会窗口来建立坚实的安全基础。现在采取的积极步骤将会在人工智能变得更加强大和对业务运营至关重要时产生指数级的回报。
在许多方面,旅程才刚刚开始。但对开发人员的信息很明确——从一开始就将安全性融入到人工智能中,利用新兴的最佳实践,并确保所需的透明度以长期安全地运营人工智能。凭借警惕和集体责任,人工智能的承诺可以得到安全实现。
总之,广泛应用的人工智能的出现要求开发人员完全重新思考他们的安全姿态。对于保护人类进程的假设不能直接适用于人工智能助手。如果不早期考虑人工智能特定的威胁,可能会导致有缺陷的系统深陷困境,从而产生灾难性的长期后果。