您的位置:首页>AI>

戴尔技术首席技术官解释为何人工智能需要同理心

奥斯汀—戴尔技术公司产品与运营总裁兼首席技术官约翰·罗斯(John Roese)表示,如果我们希望人类信任人工智能(AI),那么就需要教会机器同理心。

罗斯在上周的戴尔技术峰会上与另外两个戴尔技术公司的CTO组成了小组:戴尔Boomi的Michael Morton和RSA的Zulfikar Ramzan。Boomi是一家数据管理公司,它使企业可以在云和本地应用程序之间集成和传输数据。RSA是一家安全公司,其创始人开创了公共密钥加密技术。

这三个CTO讨论了数据时代的三个主要问题:在人工智能(AI)驱动的实时数据环境中,基础架构是什么样的?人类将在AI驱动的实时数据管道中扮演什么角色?在这个勇敢的新AI世界中,安全风险模型将是什么样?

这是三个非常聪明的家伙(没有那么多喜剧演员,因为他们很快就承认了)。因此,他们都对AI有一些非常有趣的想法。但是特别引起我注意的一个是善解人意的AI。罗斯(Roese)说过,这个话题他“在AI界颇有说服力”。实际上,他参加了2020年3月在SWSX上与此主题相关的小组讨论。

罗斯说,除非人类可以信任机器学习,否则人工智能的进步不会发生。现在,存在巨大的信任差距。

罗斯说:“对于大多数人来说,人工智能是一个黑匣子,我们不信任它,因为我们不了解它内部正在发生什么。”他补充说,“您的怀疑已经得到了全面的解决。AI正在根据给定的数据工作。它并没有考虑到您的情绪和幸福。它基本上是在获取数据集,并在没有上下文的情况下给出最佳答案。”

学到的AI同理心

另一方面,人类通常具有这种背景。因此,我们的决策可能并不总是反映最快,最线性的解决问题的方法。但是他们确实-或至少应该-考虑给定的决定将如何影响其他人。换句话说:人类具有同理心。这意味着我们需要将伦理考虑因素整合到机器学习数据集中,以确保AI最终以取悦人类的学习同理心做出决策。

罗斯说:“人工智能系统基于额外的刺激而工作。”“您提供这些数据流,而这些数据流从根本上影响模型。”但是,这也意味着人们可以感觉到AI系统的不良数据,例如偏差。

Roese建议将传感器和生物反馈整合到机器学习模型中,以便AI可以了解与之交互的人类的情绪状态。“如果我能够测量您的生物反馈该怎么办?我知道您的压力水平,心脏呼吸频率或出汗率吗?如果这是模型工作方式的一个因素?因此,它了解到,即使我选择了选项A,即使它给我带来了不错的结果,也可能会激怒人类。”

显然,那些试图与与这些AI系统进行交互的客户,合作伙伴和员工赢得信任的企业。这些公司不想让人类生气,这就是为什么善解人意的AI如此重要的原因。

因此,我们教机器选择选项B。罗斯说:“这可能会更加令人费解,但是会有更好的结果。”“人类将减轻压力,并且会更快乐。一旦您了解到AI代表您思考,就在考虑您的环境,您就会开始更加信任它。”

免责声明:本文由用户上传,如有侵权请联系删除!