谷歌宣布扩大其漏洞奖励计划(VRP),以补偿研究人员发现针对生成人工智能(AI)系统的攻击场景,以增强人工智能的安全性。
谷歌的 Laurie Richardson 和 Royal Hansen表示:“与传统数字安全相比,生成式人工智能引发了新的、不同的担忧,例如可能存在不公平偏见、模型操纵或数据误解(幻觉)。”
范围内的一些类别包括即时注入、训练数据集中敏感数据的泄漏、模型操纵、触发错误分类的对抗性扰动攻击和模型盗窃。
值得注意的是,谷歌今年 7 月初成立了人工智能红队,作为其安全人工智能框架 ( SAIF ) 的一部分,帮助解决人工智能系统面临的威胁。
作为其对安全 AI 承诺的一部分,还宣布努力通过现有的开源安全计划(例如软件工件供应链级别 (SLSA) 和Sigstore)来加强 AI 供应链。