您的位置:首页>AI>

研究人员检查AI是否有自己的想法

大多数人在个人和职业生活中每天都会遇到人工智能(AI)。人们不假思索,就要求Alexa将苏打水添加到购物清单中,使用Google Maps进行驾驶,并在Snapchat中添加过滤器-所有AI使用示例。但是,密苏里州科技大学的一位研究人员正在研究什么是AI具有“头脑”的证据,这将显示一个人何时将AI行为视为道德上的错误。

密苏里州科学与技术大学心理学专业的助理教授丹尼尔·尚克(Daniel Shank)博士建立在一种理论上,即如果人们认为实体具有思想,那么这种观点将决定他们赋予它什么精神权利和责任。他的研究将显示一个人何时将AI行为视为道德上的错误,并可能有助于减少智能设备的拒绝并改善设备。

尚克说:“我想了解人们认为机器拥有思想的社会互动以及他们认为机器是道德主体或受害者的情况。”

Shank的行为科学工作将这一理论应用于AI代理和机器人等先进机器。

“当我们确实意识到机器背后的想法时,就会告诉我们有关技术,能力和行为的一些信息,但最终它们会向我们揭示更多关于人类的信息,” Shank解释说。“在这些相遇中,我们从情感上处理了非人类技术与有思想之间的鸿沟,从本质上感觉到了我们机器思维的方式。”

尚克(Shank)正在一项由美国陆军研究办公室(ARO)资助的为期三年的项目中,以更好地了解人们对AI的看法。ARO是美国陆军作战能力发展司令部陆军研究实验室的组成部分。

在研究的第一年,他收集了人们与AI的个人互动的定性描述,这些互动涉及道德上的错误或涉及认为AI有“很多头脑”的人。Shank的研究发现,有31%的受访者报告了个人信息泄露事件,有20%的受访者报告了不良内容暴露事件,尚克认为,这都是由于它们频繁出现在个人和家用设备上而引起的。

ARO社会与行为科学项目经理Lisa Troyer博士说:“尚克博士的工作通过将长期的认知和情感社会心理学理论与人与人互动研究相结合,从而产生了对人与人团队合作的新认识。” 。“他的研究已经产生了关于自主代理人的道德观念的作用以及这些观念如何影响有效的人与代理团队的科学见解。”

目前,在研究的第二年,他正在进行受控实验,在该实验中,人工智能的思维水平会发生变化,然后人工智能会成为道德行为的实施者或受害者。Shank希望这将使他能够在AI与人类之间进行更直接的比较。到目前为止,他的研究发现,尽管诸如社交机器人之类的某些AI可以承担更大的社会角色,但人类接受这些角色的AI可以增强对思维和情绪反应的感知。

他的研究的最后阶段将使用调查和模拟来了解人们对AI的印象是否可以预测道德水平。

尚克说:“与网络连接的技术,经过大数据培训并在各种社交网络平台上运行的技术现在在我们的文化中很普遍。”“这些技术,无论它们是否是适当的人工智能,在人们的生活中都是例行的,但并不是对这些技术的每次使用都会使我们将其视为有思想的。”

美德或罪恶是否可以归因于AI的问题仍然取决于人类是否愿意将机器判断为具有道德品格。随着对AI伦理学和心理学的研究不断发展,人们正在考虑研究诸如AI权利和AI道德之类的新主题。

免责声明:本文由用户上传,如有侵权请联系删除!