您的位置:首页>AI>

如何让人工智能更合乎道德

皮尤研究中心最近的一项研究发现,大多数专家和倡导者担心人工智能将继续专注于优化利润和社会控制,并且不太可能在未来十年内建立道德基础。在今年早些时候的一项学术研究中,康奈尔大学和宾夕法尼亚大学的研究人员发现,三分之二的机器学习研究人员表示,人工智能安全应该比现在更重要。他们还发现,当人工智能得到联合国或等现有国际机构的支持时,人们愿意信任人工智能。

其中一些担忧是基于早期的人工智能模型,这些模型表现出无意的偏见。例如,Twitter 选择性裁剪图像预览的算法显示出对某些群体的明显偏见(Twitter 后来独立评估了该算法并决定将其删除)。不仅在计算机视觉中,而且在机器学习的几乎所有领域都发现了类似的偏见。

我们已经看到最近几次尝试缓解此类问题。比如去年,国防部发布了五项人工智能原则,建议人工智能技术应该是负责任的、公平的、可追溯的、可靠的和可治理的。谷歌、Zendesk和微软也发布了指导方针,提供了一个框架来实现围绕道德 AI 开发的雄心勃勃的目标。这些都是很好的起点。

道德人工智能仍处于起步阶段,但对于公司采取行动来说变得越来越重要。我的团队从第一原则的角度研究了道德 AI,并通过其他参与者的研究对其进行了扩充。我们在开发自己的道德 AI 框架时提出了这些原则,并希望它们对其他团队有所帮助:

1. 阐明您要解决的问题并确定潜在的偏见

开发合乎道德的 AI 的第一步是明确阐明您要解决的问题。例如,如果您正在开发信用评分算法,请准确概述您希望您的算法确定申请人的哪些内容,并突出显示可能无意导致偏见的任何数据点(例如,基于某人居住地的种族混杂因素) . 这也意味着了解工程师或产品经理可能存在的任何隐性偏见,并确保这些偏见不会被写入代码。在设计阶段识别偏见的一种方法是从一开始就让具有不同观点的团队成员参与进来,无论是在他们的业务职能(例如法律、产品和营销)方面,还是在他们自己的经验和背景方面。

2. 了解您的基础数据集和模型

一旦您阐明了问题并确定了潜在的偏差,您应该通过灌输过程来衡量数据集的多样性和跨感兴趣组的模型性能来定量研究偏差。这意味着对训练数据进行采样以确保它公平地代表感兴趣的组,并按这些感兴趣的组分割模型性能以确保您不会看到某些组的性能下降。例如,在开发计算机视觉模型(如情感检测算法)时,问问自己:它们对男性和女性是否同样有效?适合各种肤色和年龄?了解数据集的构成以及可能在培训或生产中无意引入的任何偏差至关重要。

3. 透明且平易近人

人工智能团队还应该寻求更好地理解他们的人工智能模型,并与正确的利益相关者透明地分享这种理解。这可能有多个维度,但应主要关注您的 AI 模型能做什么和不能做什么,以及它们所基于的基础数据集。考虑一个内容推荐系统:在向客户提供相关推荐之前,您能否阐明它需要多少信息?如果有的话,采取了哪些步骤来减轻观点的放大和用户体验的同质化?您对正在构建的底层 AI 技术了解得越多,就越能在内部向用户和其他团队透明地解释它们。谷歌用模型卡提供了一个很好的例子 — 对其 AI 模型的简单解释,描述模型何时工作最佳(以及何时无效)。

免责声明:本文由用户上传,如有侵权请联系删除!