您的位置:首页>互联网>

对AI的信任是一个常见问题 需要牢记合规性

放弃对流程及其细节的完全控制是令人生畏的,但对于发展业务却是必要的。这是任何组织中大多数管理人员都非常习惯的做法。当然,委派AI而不是雇用员工也带来了所有节省时间,提高效率的好处,但是存在一定的风险。

流行电影已经为预约AI奠定了基础。与科幻反英雄终结者或《黑客帝国》中的计算机专门针对人类作为共同敌人的技术不同,反抗AI的现实例子引起了人们对现有歧视问题的更多关注。微软的Tay聊天机器人在短短的曝光后就臭名昭著地表现出歧视态度。最近,以“简单,透明和隐私”为荣的消费类科技公司苹果公司证明,当苹果卡向具有相同财务背景的男子提供的借贷限额明显高于女性时,仍然需要取得进展。立即说明。

因此,难怪消费者需要说服力。实际上,在最近的Pega调查中,大多数客户(70%)证实他们仍然喜欢人工客户服务,因此很明显,人们对AI缺乏信任。但是,品牌必须克服这一问题,才能获得这项技术的众多好处并释放这些好处。

那么,CIO如何避免重复过去的错误并阻止AI在将来变得糟糕?

从流程的一开始,CIO可以通过确保用于创建算法的数据本身具有道德和公正性,来帮助AI变得“良好”。收集和使用来自道德来源的数据可显着降低包含有毒数据集的风险,该数据集可能会感染系统,并带有更严重的偏差。

对于高度管制的行业而言,这尤其重要,因为该行业需要确定已经存在的偏见并进行相应的补救。以保险为例,首席信息官应注意不要包括严重具有某一特定人口,性别等特征的数据,这可能会增加平均值并告知非代表性政策。

从获得同意的客户那里收集符合道德标准,符合GDPR要求的代表性数据的丰富样本,实际上可以提高其支持的AI的准确性,而且还可以减少“清理”所需的工作。CIO在实施可正常运行的AI系统之前,应先筛选其使用的数据是否存在不一致和错误,但是首先从信誉良好且可靠的来源获得时,此过程将是一项艰巨的任务。

免责声明:本文由用户上传,如有侵权请联系删除!