您的位置:首页>AI>

微软的AI编辑器发布有关自身种族错误的故事

微软用人工智能代替人类编辑人员面临着其第一个大尴尬。

5月下旬,Microsoft决定解雇MSN News的许多人工编辑器,并用AI代替它们。

本周早些时候,出现了一个有关Little Mix乐队成员Jade Thirlwall面对种族主义的经历的新闻报道。这个故事看起来足够纯真,直到您意识到Microsoft的AI混淆了两名混血乐队成员。Thirlwall迅速指出了该错误。

在Instagram故事中,瑟尔沃尔(Thirlwall)写道:“ @ MSN如果您要从其他准确的媒体渠道复制和粘贴文章,则可能需要确保使用的是该组中正确的混血儿形象。”

她补充说:“这种事发生在@leighannepinnock上,我一直都在开玩笑。。。这让我感到恼火,因为你无法在一个小组的四个成员中区分两个有色女人……做得更好!”

据报道,微软的人工编辑被告知要注意,人工智能随后可能会针对自己的种族主义错误发布故事,并手动删除它们。

MSN的工作人员还被告知要等待此《卫报》文章的发布,并尝试从网站上手动删除它,因为Microsoft机器人编辑器接任他们的工作很可能会引起MSN读者的兴趣。https://t.co/KkKDZqpHWu

-吉姆·沃特森(@jimwaterson)2020年6月9日

微软新闻应用程序最终充斥着有关该事件的故事。显然,其余的人工编辑器无法与自动编辑器相对快速地移动。

有关新闻反乌托邦线程的最终更新:Microsoft的人工智能新闻应用程序现在被新闻机器人选择的有关新闻机器人回火的故事所淹没。pic.twitter.com/X0LwfVxw8e

-吉姆·沃特森(@jimwaterson)2020年6月9日

根据沃特森的说法,最近被解雇的MSN人员被告知停止向他报告AI的工作。

这不是微软首次以种族为基础而采用人工智能技术的解决方案。

微软开发的一个臭名昭著的Twitter聊天机器人Tay最终在2016年大肆宣扬种族主义和厌恶性的硫酸盐。显然,聊天机器人的设计原本并不是那么令人讨厌的角色,但出于某种原因,微软认为允许互联网是一个好主意。居民来训练它。

在我们这个日益严酷的世界中,最紧迫的问题之一是大规模监视和面部识别。尽管IBM本周宣布它不希望与这项技术有任何关系,但微软仍然是主要参与者。

去年算法正义联盟的一项实验发现,基于性别和肤色的面部识别算法的性能之间存在严重差异。

微软的算法实际上在测试中表现最好,在检测肤色较浅的男性时,其准确性达到了100%。但是,在深色皮肤的女性身上使用该算法时,准确率仅为79.2%。

如果使用该版本的Microsoft面部识别系统进行监视-十分之九的女性中有深色皮肤风险的人中有近两个被错误地标记。在繁忙的地区,这可能意味着每天有数百甚至数千人面临自动配置文件。

虽然理想情况下算法不会有任何偏见或问题,但所有事件都表明了为什么很多人几乎总是应该参与最终决策的原因。这样,当出现问题时,至少要对特定人员负责,而不仅仅是怪AI错误。

免责声明:本文由用户上传,如有侵权请联系删除!