理想情况下,生成式人工智能应该增强而不是取代网络安全人员。但投资回报率仍是一个挑战。

生成式人工智能的安全效益是否大于危害?根据 CrowdStrike 的一份最新报告,仅有 39% 的安全专业人士表示收益大于风险。

2024 年,CrowdStrike 对来自美国、亚太地区、欧洲、中东和非洲以及其他地区的 1022 名安全研究人员和从业人员进行了调查。调查结果显示,网络专业人员对人工智能带来的挑战深感忧虑。虽然 64% 的受访者已经为工作购买了生成式人工智能工具或正在研究这些工具,但大多数人仍持谨慎态度:32% 的受访者仍在探索这些工具,只有 6% 的受访者正在积极使用这些工具。

安全研究人员希望从生成式人工智能中获得什么?

报告显示:

采用生成式人工智能的最大动机不是解决技能短缺问题或满足领导层的要求,而是提高应对和防御网络攻击的能力。
对于网络安全专业人士来说,普通用途的人工智能并不一定具有吸引力。相反,他们希望生成性人工智能与安全专业知识相结合。
40% 的受访者表示,生成式人工智能的回报和风险 “相当”。同时,39% 的受访者表示回报大于风险,26% 的受访者表示回报不高。

报告指出:“安全团队希望将 GenAI 作为平台的一部分来部署,以便从现有工具中获取更多价值,提升分析师体验,加快入职速度,并消除集成新点解决方案的复杂性。”

在采用生成式人工智能产品时,衡量投资回报率一直是个难题。CrowdStrike 发现,量化投资回报率是受访者最关心的经济问题。其次是人工智能工具的许可成本和不可预测或混乱的定价模式。

CrowdStrike 将评估人工智能投资回报率的方法按重要性分为四类:

通过平台整合和更有效地使用安全工具优化成本(31%)。
减少安全事故(30%)。
管理安全工具的时间减少(26%)。
缩短培训周期和相关成本(13%)。

CrowdStrike 表示,将人工智能添加到现有平台,而不是购买独立的人工智能产品,可以 “实现与更广泛的平台整合工作相关的增量节约”。

生成式人工智能带来的安全问题会比它解决的问题多吗?

相反,生成式人工智能本身也需要安全保护。CrowdStrike 的调查发现,安全专业人士最担心的是人工智能产品背后的龙8国际娱乐城数据暴露以及针对生成式人工智能工具发起的攻击。

其他担忧还包括

能工具缺乏防护或控制。
人工智能幻觉。
对生成式人工智能使用的公共政策监管不足。

几乎所有(约十分之九)的受访者都表示,他们的组织已经实施了新的安全政策,或正在明年内制定有关管理人工智能生成器的政策。

企业如何利用人工智能防范网络威胁

生成式人工智能可用于头脑风暴、研究或分析,但其信息通常必须经过反复核对。生成式人工智能可以将不同来源的数据以各种格式提取到一个窗口中,从而缩短研究事件所需的时间。许多自动化安全平台都提供生成式人工智能助手,如微软的 Security Copilot。

GenAI 可以通过以下方式防范网络威胁:

威胁检测和分析。
自动事件响应。
网络钓鱼检测
增强安全分析。
用于训练的合成数据。

不过,企业在购买任何生成式人工智能时都必须考虑安全和隐私控制。这样做可以保护敏感数据、遵守法规并降低数据泄露或滥用等风险。如果没有适当的保障措施,人工智能工具可能会暴露漏洞、产生有害输出或违反隐私法,从而导致财务、法律和声誉损失。

文章原文链接:https://www.anquanke.com/post/id/302790