您的位置:首页>AI>

开发超越编码和数据科学的技能

如今,人工智能算法正在改变一切,从我们如何导航周围的世界到我们如何思考人类。用作者和媒体理论家尼尔·波斯特曼(Neil Postman)的话来说,“一项新技术不会增加或减少某些东西。它改变了一切。” 1992年,邮递员(Postman)写了关于计算机兴起的文章,还谈到了印刷机,蒸汽机和电视。这些革命带来了令人难以置信的收益,同时从根本上改变了社会。我们应该期望AI也能做到。并且,我们不应忽视或担心这种变化,而应分析负面后果并加以解决。

并不是唯一负责构建公平,准确和包容性AI系统的公司和决策者。公众需要了解AI技术的基础知识,其道德后果以及如何将其用于解决现实世界中的问题。AI教育的这一转变将需要行业领导者和研究人员,立法者,教育者和非营利部门的共同努力。这是一项长期挑战,但我们可以立即采取具体步骤来取得进展。

开发超越编码和数据科学的技能

人工智能教育变得越来越容易。免费的在线课程正在向非技术人员介绍机器学习的基础知识。Google收集的AI实验之类的资源鼓励孩子和成年人玩神经网络。在美国,人工智能发展协会和计算机科学教师协会组成了一个工作组,以为向K-12学生教授AI,机器学习和机器人技术制定指导方针。同时,包括中国和印度在内的国家已经为中小学生标准化了AI课程。

尽管如此,世界各地的教育者和社区仍然迫切需要适合年龄的课程,以培养年轻学习者及其家人的好奇心。这些课程必须鼓励批判性思维,尤其是有关AI的道德含义的批判性思维。在联合国最近举行的“人工智能造福全球”峰会上,各小组讨论了对教育标准的需求,这些标准不仅要衡量诸如系统思维和终身学习之类的技能,还应包括编码等硬技能。制定此类标准的第一步是超越考试成绩,并规划出在现实世界中解决问题,协作,设定目标,数据分析和说服性沟通所涉及的学习里程碑。

发明更多负责任技术的工具

还需要使构建公平,准确的AI技术更加容易的工具和实践。开发人员可以为算法建立公平性约束,例如“在评估贷款接受者时,确保算法对男女均公平”。

创新的解决方案可以鼓励负责任的AI开发。例如,哈佛大学伯克曼·克莱因中心和麻省理工学院媒体实验室之间的一项数据营养项目正在测试数据集“营养标签”的原型。其“成分”列表使人们更容易训练AI算法评估他们打算使用的数据集的质量并识别丢失的数据。

跨行业项目将导致更有用和更具包容性的工具。再举一个例子,我的组织(一家教育性非营利组织)与一家律师事务所合作,为AI发明者设计了一套尽职调查问题。该框架要求发明人考虑其AI的利弊,考虑与其培训数据相关的潜在偏见和隐私问题,并与可能受到其发明影响的个人和群体进行交谈。问题包括:“如果您的发明做出关于人的决定,那么哪些人可能会从您的发明中受益?哪些人群可能会受到伤害?这些收益是否公平分配?您从哪里获得训练数据?”

鼓励企业承担教育责任

公司还应对公众对他们正在发展的AI技术的理解负责。目前,国会呼吁科技公司提高其消费者数据使用的透明度,并帮助用户识别其平台上的操纵。透明度和问责制至关重要,但立法应以公众对AI及其道德含义的理解为后盾。

包括Google和Microsoft在内的组织都在投资计划以支持对社会和环境产生积极影响的AI项目。作为这些努力的一部分,他们应该推广标准做法,以教育普通大众关于AI技术的知识,并强调其道德涵义。至少,构建和使用AI的公司应该公开共享其尽职调查框架和数据集信息,无论是通过“营养标签”还是类似方式。

无论我们喜不喜欢,人工智能已经渗透到我们的生活中。与其认为技术的优劣,不如说我们可以批判性地思考如何与技术互动以及它们如何塑造我们的世界。这只有通过对教育,道德和治理的结构性变化以及公司透明度的实现才能实现。我们有责任倡导这些变化,并借助AI来构建我们的未来,而不是屈服于它。

免责声明:本文由用户上传,如有侵权请联系删除!