您的位置:首页>AI>

媒体对AI的报道是虚假的

机器学习的头条新闻承诺神似的预测能力。这是四个示例:新闻周刊:“AI可以判断您是否是同性恋:人工智能可以通过一张照片以惊人的准确性预测性生活”旁观者:“语言分析可以准确预测精神病”

每日邮报:“由AI驱动的扫描可以提前十年识别出可能致命的心脏病的人……”下一个网站:“这个可怕的AI已经学会了如何从他们的脸上挑选罪犯”

通过这些文章,新闻界将使您相信机器学习可以可靠地预测您是否是同性恋,是否会患上精神病,是否会心脏病发作以及是否是犯罪分子以及其他雄心勃勃的预测,例如您何时死亡以及您的未出版书籍是否会畅销。

都是骗人的机器学习无法自信地告诉每个人这样的事情。在大多数情况下,很难确定这些事情。

谎言的运作方式如下。研究人员报告了很高的“准确性”,但后来发现-埋在技术论文的细节中-他们实际上是在滥用“准确性”一词来表示与准确性相关的另一种性能度量,但实际上并没有那么令人印象深刻。

但是新闻界对此表示赞同。该计划一次又一次地成功地使媒体蒙蔽了头脑,并产生了误导性的公然宣传手段。

现在,不要误会我的意思;机器学习的确值得高度赞扬。即使在大多数情况下都没有很高的置信度,也比随机猜测更好地进行预测的能力可改善各种业务和医疗保健流程。那是污垢。并且,在某些有限的区域中,机器学习可以提供惊人的高性能,例如用于识别照片中的交通信号灯之类的对象或从医学图像识别某些疾病的存在。

但是,在其他情况下,研究人员错误地宣传高性能。参加斯坦福大学臭名昭著的“盖达尔”研究。在2018年报告的开篇摘要中,它的预测模型将男同性恋和异性恋男性与面部图像区别开来的准确性达到了91%。这激发了记者播报夸大其词。上面强调的“新闻周刊”文章以“人工智能现在可以通过分析您的脸部图片来判断您是同性恋还是异性恋而开始”。

这种欺骗性的媒体报道是可以预期的。研究人员的开篇声明已隐含地传达给了读者,非技术记者甚至是临时技术读者,该系统可以告诉谁是同性恋,谁不是同性恋,通常对此是正确的。

免责声明:本文由用户上传,如有侵权请联系删除!