于人之思想中构建和平

人工智能:伦理困境案例

带有偏见的人工智能


© UNESCO

 

在你常用的搜索引擎中输入“有史以来最伟大的领导者”,很可能你看到的会是一份全球杰出男性人物列表。你能数得出来有多少位女性人物吗?

以“女生”为关键词搜索图片,页面上显示的女生或年轻女性往往穿着性别特征明显的服饰。令人惊讶的是,如果键入“男生”,则结果将大部分是普通男生。没有或极少男人穿着性别特征明显的服饰。

这些是人工智能中性别偏见的例子,它起源于深深植根于我们社会的刻板印象。

人工智能系统会提供有偏见的结果。搜索引擎技术不是中立的,因为它依赖大数据并以点击次数的多少确定优先结果,而这些次数取决于用户的偏好和位置。因此,搜索引擎就如同一个回声室,不仅重现着现实世界的偏见,并在网络世界里进一步强化。

我们如何确保更均衡和准确的结果?我们可以举报有偏见的搜索结果吗?女性在搜索结果中的准确形象是什么样?

在算法的开发过程中,在用于培训人工智能的大数据中,以及在人工智能的决策应用中,我们应避免性别偏见或至少将其最小化。

为了不在数字世界复制有关女性的陈规定型观念,教科文组织希望解决人工智能中的性别偏见。

因此,教科文组织着手制定关于人工智能伦理的全球性规范文书

世界上的每个人和每个地方都应该参与成为这场讨论。人工智能与每个人都息息相关!

自动驾驶汽车


© Shutterstock.com/Senha

 

自动驾驶汽车是一种能够感知环境并在极少或没有人类介入的情况下行驶的汽车。为了让车辆安全行驶并了解其行驶环境,汽车上的多个传感器需要随时采集大量的数据。车辆的自动驾驶计算机系统接着会处理这些数据。

自动驾驶汽车还必须进行大量的训练,以学会理解它所收集的数据,并在任何可以设想的交通情境中做出正确的决定。

我们每个人每天都会做出道德决策。当一个司机选择踩刹车来避免撞上一个乱穿马路的行人时,他就做出了将风险从行人身上转移到车内人身上的道德决策。

想象一下,一辆刹车失灵的自动驾驶汽车全速驶向一位老奶奶和一个小朋友。只要稍微偏离一点,就可以救下其中一人。

这一次,要做决定的不是人类司机,而是汽车的算法。

你会选择谁,老奶奶还是小朋友?你觉得只有一个正确答案吗?

这是一个典型的伦理困境,它表明了伦理在技术发展中的重要性。

这就是为什么联合国教科文组织着手拟定第一份关于人工智能伦理的全球性法律文书

世界上的每个人和每个地方都应该参与成为这场讨论。人工智能与每个人都息息相关!

人工智能艺术创作


© Shutterstock.com/agsandrew

 

人工智能在文化领域的应用引发了不少有趣的伦理思考。

在伦勃朗去世351年后的2016年,一幅伦勃朗风格的画作《下一个伦勃朗》经由计算机设计,采用3D打印制作出来。

为了达到这样的技术和艺术实力,该项目对346幅伦勃朗画作逐个进行了像素分析,并通过深度学习算法进行升级,建立了一个独特的数据库。这样一来,伦勃朗艺术风格的每一个细节都可以被捕捉到,为创造出这幅前所未有的杰作奠定了算法基础。为了让这幅画栩栩如生,3D打印机在画布上重现了笔触的质感和颜料的叠加感,以达到骗过所有艺术专家眼睛的惊人效果。  

但谁才是创作者呢?是策划这个项目的公司、工程师、算法,还是......伦勃朗本人?

2019年,中国科技公司华为宣布,人工智能算法已能够完成《第8号交响曲》的最后两个乐章,这是舒伯特在1822年,即197年前开始创作的最终未完成的一件作品。那么,当人工智能有能力自己创造艺术作品的时候,会发生什么?如果人类作者被机器和算法所取代,版权应该如何归属?算法是否也应该被承认为创作者,享有和艺术家一样的权利?

由人工智能创造的艺术作品需要对“作者”重新进行定义,以公正对待“原创”作者的创造性工作,以及制造艺术作品本身的算法和技术。

人们将创意理解为通过想象或发明来创造新的原创内容的能力,创意在开放、包容、多元的社会中发挥着核心作用。为此,人工智能对人类创造力的影响应该被认真对待和思考。虽然人工智能是一个强大的创作工具,但它在艺术的未来、艺术家的权利和报酬以及创意价值链的完整性方面引发了一些重要的问题。

我们需要开发新的框架,将盗版和抄袭与原创和创意区分开来,并在与人工智能的互动中承认人类创意作品的价值。我们需要这些框架来避免对人类作品和创造力的蓄意利用,并确保艺术家获得适当的报酬和认可,确保文化价值链的完整性以及文化部门提供体面工作的能力。

这就是为什么联合国教科文组织着手拟定第一份关于人工智能伦理的全球性法律文书

世界上的每个人和每个地方都应该参与成为这场讨论。人工智能与每个人都息息相关!

人工智能的法律应用


© Shutterstock.com/icedmocha

 

人工智能被越来越多地应用于世界各地的司法体系,产生了更多的伦理问题有待我们探讨。与法官相比,人工智能或许可以更好、更快、更高效地评估案件和执行正义。

人工智能方法有可能在广泛的领域——从法律和司法行业到辅助公共立法机关和行政机关做出决策——产生巨大的影响。例如,人工智能可以提高律师在咨询和诉讼中的效率和准确性,对律师、客户和整个社会都有所裨益。现有的法官软件系统可以通过人工智能工具进行补充和提升,帮助法官起草判决书。这种越来越多地使用自主系统的趋势被称为司法自动化。

有人认为,人工智能可以帮助建立更加公平的刑事司法系统,在这个系统中,机器可以利用其速度优势和摄取大量数据的优势,比人类更好地评估和权衡相关因素。因此,人工智能能根据充分的信息做出不具任何偏见和主观性的决定。

但也有许多伦理挑战存在:

  • 人工智能工具缺乏透明度:人类并不总能清楚明了人工智能的决策。
  • 人工智能缺乏中立性:基于人工智能的决策很容易出现不准确、带歧视性的结果,以及嵌入或插入式的偏见。
  • 数据收集的监督措施和法院相关人员的隐私。
  • 对公平性产生的新问题,以及对人权和其他基本价值的风险。

那么,你愿意在法庭上被机器人审判吗?即使我们不确定它是如何得出结论的,你愿意吗?

这就是为什么联合国教科文组织着手拟定第一份关于人工智能伦理的全球性法律文书

世界上的每个人和每个地方都应该参与成为这场讨论。人工智能与每个人都息息相关!