您的位置:首页>AI>

研究人员不知道为什么AI会做出决定

人工智能(AI)当前正在革新技术世界。从能够自行驾驶的汽车到可以在数秒内处理大量数据的算法,人工智能系统具有广泛的用途。它们在医疗保健和国防等重要领域也得到了越来越多的利用,以制定决策并提高效率。

实际上,如果没有人工智能,当今世界将大为不同。尽管近年来仅流行并迅速进入主流,但人工智能已经对数字世界的几乎所有方面产生了巨大影响。

但是,如果要继续在高风险的情况下使用AI,则必须解决一个迫在眉睫的问题。尽管这些算法能够以较高的速度做出准确的决策,但研究人员并不真正知道它们是如何工作的。如果人类要完全信任人工智能,那么找到一种方法来揭示其决策背后的原因将至关重要。

任何值得投入的网络开发人员都应该能够浏览网站的代码,并逐行解释正在发生的事情。但是,尝试使用AI算法这样做几乎是不可能的。这就是理解人工智能工作的问题所在。

在过去的十年中,研究人员在开发AI系统时转向了所谓的“黑匣子方法”。从本质上讲,这意味着他们能够测试和开发功能齐全的人工智能,而无需查看使之起作用的代码。事实证明,允许AI以这种方式通过深度学习自学,只需向其提供大量数据并达到目标就可以了。

但是,该方法严重限制了研究人员了解AI系统为何做出特定决定的能力。向前迈进,这将是克服困难的障碍。

免责声明:本文由用户上传,如有侵权请联系删除!