微软的一款新实用程序将对人工智能进行严格的压力测试。

微软推出了一款用于 在人工智能系统中 自动进行风险评估的新工具,称为 PyRIT (Python 风险识别工具)。这一开发旨在主动识别生成人工智能系统中的潜在威胁,使世界各地的组织能够安全地集成人工智能的最新进展。

该工具可用于评估大型语言模型对各种威胁(包括创建不准确信息和禁止内容)的稳健性。此外,PyRIT 能够检测恶意软件创建和系统黑客等安全威胁,以及身份盗窃等隐私威胁。

微软强调,PyRIT 并不是取代 AI 系统的手动分析,而是补充安全团队的现有技能。该工具有助于识别人工智能操作中最有问题的领域,生成数十个查询并显着节省专家的时间。

PyRIT 出现在 Protect AI最近的一份报告 中,研究人员在流行的 AI 供应链平台(例如 ClearML、Hugging Face、MLflow 和 Triton Inference Server)中发现了多个关键漏洞,这些漏洞可能导致任意代码执行和敏感信息泄露。

因此,在神经网络模型的使用快速增长以及人工智能系统漏洞报告众多的背景下,新的微软工具将允许组织有效评估所有可能的风险,并避免因数据泄露或模型偏差而造成的声誉损失。

 

文章原文链接:https://www.anquanke.com/post/id/293420