2024 年 RSA 大会上发出了一个强烈信息,即网络安全专业人员肩负着保护 AI 工具安全的紧迫责任,确保这些技术仅用于社会公益。
人工智能在现实世界中带来了巨大的希望,例如更快、更准确地诊断健康状况。
然而,随着人工智能的创新和采用速度以前所未有的速度加快,安全护栏必须尽早到位,以确保它们兑现许多人的巨大承诺。
这必须牢记隐私和公平等概念。
微软负责安全、合规、身份和管理的公司副总裁 Vasu Jakkal 强调说:“我们有责任创造一个安全可靠的探索空间。”
另外,人工智能安全中心创始人 Dan Hendrycks 表示,鉴于人工智能在现实世界中日益增长的影响力和潜力,人工智能存在巨大的风险,这些风险既有社会风险,也有技术风险。
“这是一个更广泛的社会技术问题,而不仅仅是一个技术问题,”他说。
哈佛大学肯尼迪学院安全技术专家、研究员兼讲师 Bruce Schneier 补充道:“安全现在就是我们的安全,这就是为什么我们必须更广泛地考虑这些事情。”
人工智能完整性面临的威胁
员工在工作中使用 ChatGPT 等公开的生成式 AI 工具,Presidio 首席信息安全官 Dan Lohrmann 将这种现象称为“自带 AI”。
Secureworks 首席技术官 Mike Aiello 告诉Infosecurity,他看到了与安全访问服务边缘 (SASE) 服务首次出现时的类比,当时整个企业的许多员工都创建了订阅。
“各组织在人工智能的使用上也看到了同样的情况,例如注册 ChatGPT,而且在企业中有点不受控制,”他指出。
这种趋势给企业带来了许多安全和隐私问题,例如敏感的公司数据被输入到这些模型中,这可能会使信息公开。
其他问题也威胁着人工智能工具输出的完整性。其中包括数据中毒(通过更改模型所训练的数据而意外或故意改变模型的行为)和提示注入攻击(其中人工智能模型被操纵以执行意外操作)。
这些问题可能会破坏人们对人工智能技术的信任,导致幻觉甚至偏见和歧视等问题。这反过来可能会限制它们的使用以及解决重大社会问题的潜力。
人工智能是一个治理问题
在 RSA 会议上发言的专家们主张组织应像对待任何其他需要保护的应用程序一样对待人工智能工具。
谷歌安全工程副总裁希瑟·阿德金斯 (Heather Adkins) 指出,本质上人工智能系统与其他应用程序相同,都有输入和输出。
“过去 30 年我们作为一个行业开发的许多技术也适用于此,”她评论道。
Jakkal 表示,确保人工智能系统安全的核心是强大的风险管理治理系统。她为此列出了微软的三大支柱:
发现:了解您的环境中使用了哪些人工智能工具以及员工如何使用它们
保护:降低您拥有的系统中的风险,并实施
治理:遵守监管和行为准则政策,并培训员工安全使用人工智能工具
Lohrmann 强调,组织采取的第一步是让人工智能在整个员工队伍中可见。 “你必须先知道正在发生什么,然后才能采取行动,”他告诉Infosecurity。
Secureworks 的 Aiello 还主张在将工作委托给人工智能模型时让人类充分了解情况。他解释说,虽然该公司使用工具进行数据分析,但分析师会检查这些数据,并在出现幻觉等问题时提供反馈。
结论
我们正处于了解人工智能对社会产生真正影响的早期阶段。为了实现这一潜力,这些系统必须以强大的安全性为基础,否则将面临跨组织和国家的限制甚至禁止的风险。
组织仍在努力应对工作场所中生成式人工智能工具的爆炸式增长,必须迅速采取行动,开发能够安全可靠地管理这种使用的政策和工具。
网络安全行业今天解决这个问题的方法可能会严重影响人工智能未来的作用。
文章原文链接:https://www.anquanke.com/post/id/296443