您的位置:首页>科技>

该工具可帮助检测AI驱动系统中的数据漏洞

根据NUS的说法,这些模型容易受到推理攻击,使黑客可以提取有关训练数据的敏感信息。

已开发出一种称为“机器学习隐私权计量器”的新开源工具,以帮助检测基于人工智能(AI)的系统中的数据漏洞,并防止它们受到可能的攻击。

新加坡国立大学(NUS)的一组研究人员开发了该工具以及通用攻击公式,该公式为测试AI系统中不同类型的推理攻击提供了框架。

“在使用敏感数据构建AI系统时,组织应确保在此类系统中处理的数据得到充分保护。我们的工具可以帮助组织在部署AI系统之前执行内部隐私风险分析或审核,” NUS助理教授Reza Shokri在一份新闻稿中说。

在包括敏感信息的数据集上训练了各种服务中使用的AI模型。根据NUS的说法,这些模型容易受到推理攻击,使黑客可以提取有关训练数据的敏感信息。

免责声明:本文由用户上传,如有侵权请联系删除!