英特尔与佐治亚理工学院一起加入DARPA计划

英特尔和佐治亚理工学院(Georgia Tech)今天宣布,他们已被选中领导国防高级研究计划局(DARPA)的保证人工智能(AI)防止欺骗的鲁棒性(GARD)计划团队)。在为期四年,耗资数百万美元的共同努力中,英特尔是主要承包商,以改善针对机器学习(ML)模型的欺骗性攻击的网络安全防御。

“英特尔和乔治亚理工大学正在共同努力,促进生态系统对AI和ML漏洞的集体理解和缓解能力。通过对一致性技术的创新研究,我们正在合作开发一种方法,以增强对象检测并提高AI和ML对对抗攻击的响应能力,”英特尔实验室首席工程师兼DARPA GARD计划首席研究员Jason Martin说来自英特尔。

对抗攻击很少见,但它试图欺骗,更改或破坏ML算法对数据的解释。随着AI和ML模型越来越多地纳入半自治和自治系统中,不断提高意外或欺骗性交互的稳定性,安全性和安全性至关重要。例如,在像素级别的AI错误分类和错误解释可能会导致图像错误解释和标签错误,或者对现实世界对象的细微修改可能会使AI感知系统混乱。GARD将帮助AI和ML技术更好地防御未来的潜在攻击。

当前的防御工作旨在防止特定的预定义对抗攻击,但在超出其指定设计参数的条件下进行测试时仍然容易受到攻击。GARD打算以不同的方式处理ML防御-通过开发基础广泛的防御措施来解决给定情况下可能导致ML模型错误分类或错误解释数据的多种可能的攻击。由于其广泛的架构覆盖范围和安全领导地位,英特尔在帮助推动AI和ML技术创新方面具有独特的地位,并在成果中占有举足轻重的地位。

GARD计划的目标是建立理论上的机器学习系统基础,这些基础不仅可以识别系统漏洞并描述特性以增强系统的鲁棒性,而且可以促进创建有效的防御措施。通过这些计划要素,GARD的目标是创建具有严格标准的抗欺骗性机器学习技术,以评估其有效性。

在GARD的第一阶段,英特尔和佐治亚理工学院正在通过静止图像和视频的空间,时间和语义一致性来增强对象检测技术。英特尔致力于推动AI和ML创新,并相信与全球熟练的安全研究人员合作是解决更广泛行业和我们客户潜在安全漏洞的关键部分。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。