您的位置:首页>AI>

医疗保健AI的道德规范行业应如何准备

亚马逊的机器学习部门关闭了过去三年一直在从事的人工智能(AI)项目。机器学习部门的一个团队一直在构建计算机程序,这些程序旨在审查求职者的简历,使他们的评分从1到5,这与购物者对从亚马逊在线购买的产品的评价方式不同。

但是,在项目开始的一年之内,该公司意识到其系统偏向女性申请人。

该软件经过培训,目的是通过观察十年来提交给公司的简历中的模式来审查申请人,其中大多数(由于高科技行业的男性主导地位)来自男性。因此,该系统告诉自己,男性候选人更可取,从而对包含“妇女”一词的简历进行了惩罚,并降低了所有女性大学的毕业生的评级。通过使用固有偏差的数据进行训练,从某种意义上讲,机器学习出了厌女症。

近三年来,人们对AI的兴趣一直在增长,尤其是在医疗保健领域。从疾病的诊断,以一天到一天的医院管理,人工智能的发展具有医疗保健的各个方面几乎变换电源。

AI可以为临床医生提供所有数据的综合视图,以查看在哪里最好地部署其产品,并在成像领域蓬勃发展,在AI领域它可以处理X射线和扫描产生的信息,其速度和准确性越来越超出人类。该技术甚至已被用于教导开源假肢根据穿戴者的动作进行枢转和移动,并通过新的用户数据在每一个转弯处进行改进。

有关患者数据的隐私性以及在技术中纳入疏忽歧视的风险的问题,使许多行业专家开始关注机器学习的伦理意义。看起来,尽管该行业渴望看到一些有关医学中机器学习道德的官方监管准则,但很少有利益相关者确定这些形式应该采取什么形式。

面对商业压力时人工智能的道德规范

在欧洲创新技术研究院(EIT)的健康部门进行的一项调查中,有59%的医疗保健机器学习初创企业期望他们正在开发的AI技术需要获得监管部门的批准,但只有22%的人可以提出建议应该由道德和人工智能准则来解决。

对他们而言,幸运的是,由52个独立专家组成的欧洲委员会AI高级专家组(AI HLEG)发布了可信赖人工智能的道德准则。

这些指南列出了AI系统应符合道德标准的关键要求。像Google,IBM和Microsoft这样的大型科技公司也发布了自己的道德AI原则-当许多医疗公司正在使用这些组织的开放式AI解决方案来运行自己的项目时尤其方便。

但就目前情况而言,目前几乎没有官方的AI法规,甚至政府也被警告不要试图对技术进行过于严格的监管。而且,当AI受到更多的指导而不是实际规则的约束时,很难说这些新技术的开发者是否会认真对待道德问题。

EIT Health首席执行官简·菲利普·贝克(Jan-Philipp Beck)说:“如果您面临业务压力,并且需要确保您令投资者满意,那么您是否真的会全力以赴,确保对自己的算法进行实际的代表培训?”

免责声明:本文由用户上传,如有侵权请联系删除!