于人之思想中构建和平

广角

人工智能的道德风险

人工智能会被用来强化现有的歧视性措施,例如种族特征分析、行为预测、甚至于性取向的判定。因此,有必要就由此引发的道德伦理问题颁布相关法律,确保人们以负责任的方式开发人工智能。

马克-安托万·迪拉克;雷吉斯·梅朗 担任采访

 

基于摄影图像的行为分析软件引发了哪些问题?

人工智能有助于改善公共场所视频监控系统的预防作用。目前的软件可以持续不断地对图像进行分析,从中发现攻击行为,并迅速发出警报。这套新的系统正在接受测试,例如,安装在巴黎Châtelet地铁站各条走廊的那套系统。假如人们接受了视频监控的做法,那么使用人工智能的唯一问题就是,它也许会出错。但这个风险并不高,因为最终必须由人来决定是否需要进行干预。

不过,面部识别出现错误是很常见的。图像上一处小小的瑕疵,就足以让人工智能把人脸看成烤面包机!令人不安的是,人们感觉自己受到过度监控,而且系统出错次数也越来越多。

还有人担心,智能系统及其可能采用的种族和社会特征分析技术或被滥用。

您指的是哪种类型的滥用呢?

比如,一些国家目前采用某些程序,利用面部识别技术来发现“恐怖行为”或“犯罪特征”,也就是从人们的面部特征来判断他们的内在犯罪倾向!

人们原本以为这种相面术——号称可以通过观察面部特征来研判性格的伪科学理论——已成为历史的尘埃,谁知如今又死灰复燃。美国斯坦福大学的迈克尔·科辛斯基(Michal Kosinski)和王轶伦(Yilun Wang)深以为患,希望可以揭示其中暗藏的风险。为了提醒人们关注隐私侵犯所带来的风险,他们在2017年编写了“基达”程序——通过分析照片就可以识别某人是否为同性恋!编程者指出,这个程序的误差范围只有20%。应用这项技术,不仅会抹黑他人,而且还会侵犯个人隐藏其性取向的权利。

在缺乏哲学指导,或是缺失相关社会、法律规范的情况下开展的任何科学研究,都可能引发伦理问题。我刚刚提到的这几个例子说明,目前迫切需要为人工智能研究建立道德框架。

请谈谈优生学被滥用的情况。

在我看来,人工智能并非一定带来优生。有些人预言,利用人工智能,比如用芯片来拓展记忆或是改善面部识别,可以让人类更趋完善。智能机器人或许可以为某些残疾人提供医疗解决方案(例如安装先进的义肢,以恢复行动能力),不过其能够让人类具备超能力的假设,仍属于科幻小说的范畴。

 

马克-安托万·迪拉克

马克-安托万·迪拉克(法国) 蒙特利尔大学伦理学和政治哲学助理教授,现任加拿大公共伦理讲席教授,伦理研究中心(CRE)伦理和政治研究副主任。