Press "Enter" to skip to content

致力于安全可靠的人工智能的行动

网络威胁迅速演变,部分最大的漏洞不是由公司或产品制造商发现的,而是由外部安全研究人员发现的。这就是为什么我们长期以来通过我们的漏洞奖励计划(VRP)Project Zero和在开源软件安全领域支持集体安全的原因。这也是为什么今年早些时候,我们与其他领先的AI公司在白宫举行会议,承诺推动AI系统漏洞的发现。

今天,我们将扩展我们的VRP,以奖励针对生成型AI的攻击场景。我们相信,这将激励对AI安全性和安全性的研究,并揭示潜在问题,最终使AI对每个人更加安全。我们还将扩展我们的开源安全工作,使有关AI供应链安全的信息能够被广泛发现和验证。

新技术需要新的漏洞报告准则

作为扩展VRP for AI的一部分,我们正在重新考虑漏洞应如何被分类和报告。生成型AI提出了与传统数字安全不同的新问题,例如不公平偏见的潜力、模型操纵或数据解释错误(幻觉)。随着我们继续将生成型AI整合到更多产品和特性中,我们的信任和安全团队凭借数十年的经验采取全面的方法,更好地预见和测试这些潜在风险。但我们明白,外部安全研究人员可以帮助我们找到和解决新的漏洞,进而使我们的生成型AI产品更加安全和可靠。今年8月,我们与白宫和行业同行一起在DEF CON最大规模的公开生成型AI Red Team活动上启用了数千名第三方安全研究人员寻找潜在问题。现在,我们正在扩大漏洞赏金计划并发布更多指南,告诉安全研究人员我们希望他们寻找什么,我们分享这些指南,以供任何人查看“范围内”的内容。我们预计这将激发安全研究人员提交更多漏洞,并加速实现更安全、更可靠的生成型AI的目标。

加强AI供应链的两种新方法

我们推出了安全AI框架(SAIF)——以支持行业创建可信任的应用程序,并通过AI红队测试鼓励实施。SAIF的第一原则是确保AI生态系统具有强大的安全基础,这意味着保护机器学习(ML)所需的关键供应链组件免受模型篡改数据污染有害内容的生产等威胁。

今天,为了进一步防止机器学习供应链攻击,我们正扩展我们的开源安全工作并在之前与开源安全基金会合作的基础上进行扩展。Google开源安全团队(GOSST)正在利用SLSASigstore来保护AI供应链的整体完整性。SLSA涉及一组标准和控制措施,以提高供应链的弹性,而Sigstore有助于验证供应链中的软件是否符合所声称的。为了开始操作,今天我们宣布推出了与Sigstore进行模型签名和与SLSA进行验证的首批原型。

这些是确保生成型人工智能(AI)安全可靠发展的早期步骤——我们知道工作刚刚起步。我们希望通过激励更多的安全研究,并将供应链安全应用于人工智能领域,激发与开源安全社区和其他行业的更多合作,并最终帮助使人工智能对每个人更加安全。

Leave a Reply

Your email address will not be published. Required fields are marked *