您的位置:首页>AI>

Google提高了机器学习模型得出结论的过程的透明度

虽然大多数人每天都会接触某种算法,但没有多少人可以自信地说他们实际上了解人工智能(AI)的工作原理。但是,谷歌在当地时间11月20日在英国举行的“ Google Cloud Next '19 UK”上宣布的新工具,对于普通大众来说,是克服机器学习(ML)困难的强大工具。应该的。

该工具称为“可解释的AI”,其名称暗示了一个功能:ML模型建立思想的方法,并向用户说明了得出结论的原因。

可解释的AI量化了数据集中的每个特征如何影响算法得出的结果以实现这些功能。换句话说,为每个数据系数分配一个分数,该分数指示ML模型受到了多少影响。

通过参考分数,用户可以理解为什么算法做出某些决定。例如,在确定某人是否可以批准贷款的模型中,可解释AI显示帐户余额和信用是最重要的数据。

该工具现在可以应用于Google的AutoML表和Cloud AI Platform Predictions上托管的ML模型。

Google过去一直在努力提高算法的透明度。该公司宣布了假设工具,该工具为开发人员提供了在AI平台上工作时可视化和浏览数据集的功能。

可解释的AI对数据的系数进行量化,以提供更深入的见解,并使这些见解更易于理解。

“您还可以将AI解释和假设工具相结合,以全面了解模型的行为,” Google Cloud云AI战略总监Tracy Frey说。

在某些领域,例如医学,提高AI透明度可能特别有用。

该公司还宣布推出名为“模型卡”的新概念。模型卡是简短的文档,提供有关特定算法的简要信息。

该文档包含有关模型性能和约束的实用细节,并且实质上是ML模型的一种识别形式。

该公司表示:“这使开发人员可以对负责任的模式,目的,部署方式做出更好的决策。”

Google已经发布了两个模型卡示例:人脸识别算法和对象检测算法。

免责声明:本文由用户上传,如有侵权请联系删除!