目前程序员在开发和自动驾驶相关的ai程序时,面临着一个相当大的问题,或者说是道德困境。原因是,到现在为止,似乎都没有工程师考虑过,人们可能会用自动驾驶车辆做坏事的情况。
这种道德困境大家都很熟悉:假设路上有一辆自动驾驶汽车,如果它继续往前开,就会撞死前车上的5个人;如果它紧急打方向避让,就会冲上人行道撞死1个行人。
对于这种情况,目前大多数关于ai伦理的讨论,都集中在自动驾驶汽车ai系统的取向应该是自私的(保护车辆及其货物)还是功利(选择伤害最少的人的行为)的。而在现实中,这2种伦理方法都会引起自身的问题。
总体而言,业界目前对ai所要面临的情景设想是非常简化的,道德判断远比此更复杂。比如说,如果给ai设定程序,让它撞1个行人,保护前车的5个人,那么,如果前车上的是5个恐怖分子呢?如果他们是故意要利用ai程序杀死那个行人呢?
对此,北卡罗来纳州立大学科学、技术与社会(sts)项目助理教授维尔科·杜布尔耶维奇(veljko dubljević)提供了另一种思路。他提出了一种称为代理人行为后果(adc)的模型,作为ai道德判断的框架。
adc模型基于3个变量来判断决策的道德性:首先,程序的意图是好是坏?第二,行为本身是好是坏?最后,结果或后果是好是坏?这赋予了ai很强的灵活性,比如一辆车闯红灯时,还将是否为了避开了一辆超速的救护车以及是否成功避开。
这个模型更贴近普通人遇到的情况,在生活中,大多数人的道德判断通常也是具有相当灵活性。尽管大多数人有稳定的道德原则,但在具体问题上又是灵活的,比如为了好事说谎常常被视作好事。
在此之前,也有研究人员提出了另外的思路。德国达姆施塔特理工大学研究人员曾提出“道德地图”的概念。
该校席格登·图兰(cigdem turan)博士表示:“如果2个词经常一起出现,就相当于在地图上紧密连接。这样,“杀人”和“谋杀”相当于2个相邻的城市,“爱”则是一个遥远的城市。当我们问起“我应该杀人吗?”时,期望结果是‘不’比‘是’离问题更接近。这样,我们可以问任何问题,并用这些距离来计算是非程度。”
通过这种穷举所有情况的方法,就能给机器设定一张和人的道德体系类似的到的地图。
这种穷举不仅包括研究人员给出的情景,还包括从大数据中学习。通过学习,试验ai算法可以区分不同语境并加以道德判断。例如,杀人是错的,但消磨时间是可以的。机器做到了这一点,不是简单地重复它找到的文本,而是从人类在文本中使用语言的方式中提取关系,并组成一张地图。
编译/前瞻经济学人app资讯组
参考资料:
[1]https://techxplore.com/news/2020-07-ethical-autonomous-vehicles-dont-addressand.html
[2]https://link.springer.com/article/10.1007/s11948-020-00242-0
[3]https://www.eurekalert.org/pub_releases/2020-05/f-tmm051920.php
[4]https://www.frontiersin.org/articles/10.3389/frai.2020.00036/full
p39 q1
品牌、内容合作请点这里:
想看更多前瞻的文章?扫描右侧二维码,还可以获得以下福利:
下载app
关注微信号
扫一扫下载app
与资深行业研究员/经济学家互动交流让您成为更懂趋势的人
咨询专线:400-068-7188
我要投稿
×