您的位置:首页>互联网>

人工智能 机器学习是整合以前碎片化数据的关键

劳工部首席信息官 Gundeep Ahluwalia 在最近的 MeriTalk 网络研讨会上强调了克服数据碎片化以帮助机构完成其使命的重要性以及先进数据分析技术对实现该目标的重要性。

在由 Splunk、Ahluwalia 和 Splunk 集团副总裁兼首席战略顾问 Juliana Vida 赞助的网络研讨会期间,讨论了结束数据碎片化和确保安全团队与其他团队成员“使用同一种语言”的重要性等话题。机构。

对于 Ahluwalia 来说,一切都围绕着任务影响。“归根结底,[任务影响]是我们来工作的原因;这就是联邦机构存在的原因,”他说。劳工部的任务多种多样,收集大量数据,其中许多包含个人身份信息或受 HIPPA 保护的数据。

“以有意义的方式保护 [数据] 需要一种现代方法,”他说。虽然劳工部利用国土安全部的持续诊断和缓解 (CDM) 计划来保护数据,但阿卢瓦利亚表示,他的团队已经意识到,仅靠人类无法处理和保护所有这些数据。相反,他说机构需要使用人工智能 (AI) 和机器学习 (ML) 技术。

具体而言,Ahluwalia 表示,该部门使用 SOAR [安全编排、自动化和响应] 工具将员工引导到重要的事情上,而不是强迫人类对大量数据进行分类。

回顾过去,Ahluwalia 说:“我们从事创建数据库的业务。当国会制定法律时,我们将获得资源,我们将通过创建适合一个目的且仅一个目的的碎片化数据来应对它。”这是几十年来的方法,它在部门和机构之间造成了大量碎片化。“这些年来,我们越是分裂,就越难将我们团结在一起,”他说。

“这是个好消息——我认为现在对数据策略的关注已经足够了,而且技术随着人工智能、机器学习和其他工具的发展而发展,使我们能够重新整合如此分散的数据,”他说。

关于如何使用数据仍然存在监管现实,Ahluwalia 表示这对于保护数据隐私是必要的。然而,他敦促国会研究现行法规,以更好地技术人员和项目官员在必要的情况下以可控的方式打破碎片化障碍。

免责声明:本文由用户上传,如有侵权请联系删除!