第三百九十一章 ??“电车难题”是无人驾驶的绊脚石?-特斯拉model 3自动驾驶怎么开启
第三百九十一章 ??“电车难题”是无人驾驶的绊脚石?-特斯拉model 3自动驾驶怎么开启-无人驾驶帝国-一本书
无人驾驶帝国
作者:无人车来也
投票推荐 加入书签 留言反馈
第二天上课,隋老师讨论一个严肃的话题《“电车难题”是无人驾驶的绊脚石?》
隋老师道:
“说起无人驾驶,许多人就会不自觉的联想到上世纪年代诞生的经典电车难题。
这个伦/理学领域最为知名的思想实验,正在成为整个行业不断前进的绊脚石。
因此,现在我们是不是该向前看,把这个问题彻底翻篇,不要再用这一道德问题来拷问无人驾驶汽车了呢?”
说完,隋老师微微一笑,看向大家。
王磊同学忽然问:“隋老师,电车难题是什么呀?”
一些同学点头,觉得王磊这个问题问得好,问到了心坎儿上。
隋老师说:
“1967年,英国哲学家菲利帕富特首次提出‘电车难题’。
一辆有轨电车失去了控制,司机看见前方的轨道上有五个人。
司机可以任凭电车继续前行,这样,这五个人一定都会被撞死;司机也可以将电车转向,开到一条岔路上,而这样只会撞死另一个人。
那么,司机是否应当把电车开到人少的轨道上,撞死一个人,而不是五个人呢?
1985年,米国哲学家汤姆森将这个问题作了进一步展开。
这一次,是你亲眼看见一辆失去控制的电车沿着轨道疾驰而去,而你则站在一个道岔开关的旁边。
你可以无动于衷,任凭电车继续前行,撞死那五个人;或者你也可以扳动道岔,将电车引至侧线,只撞死另外的那个人。
这里的新条件是:和电车司机不同,你并没有在两条轨道之间作出选择的职业责任。
你会如何选择?
值得一提的是,这不仅仅是个哲学难题,汤姆森的假设,在后来的米国,真实的上演了这一幕,我想如果有上帝,上帝一定是个有点恶趣味的家伙。
案件里,站在道岔口的人选择了拨动道岔,5个人得救了。许多人对她的选择表示赞同。
事实上,这道题,多数人会选择撞死一个人。因为如此选择的人们会说很简单,做做数学,为了最多数人的幸福。”
同学们纷纷点头。
哦,这就是电车难题哟!的确有些难!
隋老师继续说:
“如果以电车难题为基础来一次发散思维,你确实能得到大量难以解答的问题。
比如,无人驾驶汽车应该为了保行人而放弃驾驶员吗?
那么事故当头,老人和年轻人谁更应该做出牺牲?
如果车辆能获知附近驾驶员的信息,在车辆失控前它是否应该根据这些信息进行选择性的碰撞?
事实上,电车难题在无人驾驶圈已经是个绕不开的话题,麻省理工的工程师甚至专门众筹了一个‘道德机器’,旨在编写一个意见目录,以解决未来机器人在特定情况下该作何反应的问题。
不过,几十年来都没有答案的电车难题,其实本身就有个漏洞。”
隋老师停顿下来,然后问:“你们知道是什么漏洞吗?”
刘军民举手说:“编程的人,一定带有倾向性啊,他们的倾向,就是到的漏洞!”
刘俊豪举手补充:“工程师们众筹的道德机器,汇聚了大家的道德,也不能取得道德一致性吧?”
隋老师道:
“你们的回答都有一些道理。
实际上,在为机器人设定道德条件时,电车难题这个思想实验根本不及格。
如果硬要把它套进这一领域,特别是在制定政策、引导设计或回答一些人们关心的问题时,肯定会导致一些有关机器伦/理的危险且不完整的结论。
我们千万别让功利主义蒙了眼睛。
‘电车难题’1967 年诞生时,哲学家菲利帕富特探讨的是人的打算与他们预见的不同。
当时富特拿堕胎打了一个比方,如果产妇难产,是摘掉产妇的子宫放手一搏来救孩子(属于‘预见’的范畴,成了皆大欢喜,失败了就一尸两命),还是直接结束孩子的生命(属于‘打算’的范畴)来救产妇一命呢?
同样都是面对产妇难产,不同的处理方式会带来不同的道德结论。
富特当时还引申出了许多类似的情况,其中之一就与有轨电车司机有关。
另外一个则属于法官面对的难题,她设想如果法官不判处一位无辜群众的死刑,暴徒就威胁要冲击法庭。
第二个设想就与电车难题类似,法官要做出选择,到底是为了正义牺牲多数人的生命,还是为了多数人的利益牺牲无辜者。
经过一番研究,富特在论文中表示:‘大多数选择牺牲扳道员来拯救更多生命的人,如果碰上法官歪曲黑白剥夺无辜者生命时也会感到震惊。’
于是,她总结称,一个人做什么和一个人允许什么之间是有差别的,因此避免伤害和带来帮助之间的差别非常重要。
富特的论文虽然简短,但给现在的读者提供了一个全新的视角来看待无人驾驶汽车遇到的道德困境,而不是钻进‘电车难题’的牛角尖里爬不出来。
从某种程度上来说,这是因为富特遵循了大家所熟知的美德伦/理(来自古希腊亚里士多德)。
大家熟知的美德伦/理是什么呢?”
邓民中举手道:“利他主义!”
隋老师鼓励大家继续举手回答。
荣颜同学举手回答:“人生而平等!”
隋老师笑着问:“还有哪个同学回答吗?”
同学们都不在举手。
隋老师说:
“刚才邓民中、荣颜同学回答得不够准确。
美德伦/理,是指一个人的道德水平甚至可以和生命划等号!
不过,在讨论无人驾驶汽车时,大多数人会自动忽略美德伦/理,他们更重视无人驾驶汽车带来的最终结果。
在道德哲学里,这样的方式是与美德伦/理截然不同的,它的学名叫做结果论,而结果论中有个著名的分支功利主义。
也就是说,秉承这种理论的人在做事前会首先考虑自己行为可能导致的后果。
眼下,功利主义已经成了无人驾驶汽车修辞学中根深蒂固的思想,而在宣传时大家总是会提到无人驾驶汽车带来的全方位安全防护。
鉴于米国 2006 年因车祸丧生的人高达 3.7 万名且有 94%都是司机犯错,因此用可靠的机器人替换容易犯错的人类成了一件有百利而无一害的大好事。
不过问题是,只关注结果会让盲目的人们忘记原来无人驾驶汽车也有缺点。
就像富特提出的电车司机与法官的案例在道德上不能类比一样,无人驾驶汽车在相同情况下可能也会造成不同的道德、法律和公民后果。”
隋老师道:
“说起无人驾驶,许多人就会不自觉的联想到上世纪年代诞生的经典电车难题。
这个伦/理学领域最为知名的思想实验,正在成为整个行业不断前进的绊脚石。
因此,现在我们是不是该向前看,把这个问题彻底翻篇,不要再用这一道德问题来拷问无人驾驶汽车了呢?”
说完,隋老师微微一笑,看向大家。
王磊同学忽然问:“隋老师,电车难题是什么呀?”
一些同学点头,觉得王磊这个问题问得好,问到了心坎儿上。
隋老师说:
“1967年,英国哲学家菲利帕富特首次提出‘电车难题’。
一辆有轨电车失去了控制,司机看见前方的轨道上有五个人。
司机可以任凭电车继续前行,这样,这五个人一定都会被撞死;司机也可以将电车转向,开到一条岔路上,而这样只会撞死另一个人。
那么,司机是否应当把电车开到人少的轨道上,撞死一个人,而不是五个人呢?
1985年,米国哲学家汤姆森将这个问题作了进一步展开。
这一次,是你亲眼看见一辆失去控制的电车沿着轨道疾驰而去,而你则站在一个道岔开关的旁边。
你可以无动于衷,任凭电车继续前行,撞死那五个人;或者你也可以扳动道岔,将电车引至侧线,只撞死另外的那个人。
这里的新条件是:和电车司机不同,你并没有在两条轨道之间作出选择的职业责任。
你会如何选择?
值得一提的是,这不仅仅是个哲学难题,汤姆森的假设,在后来的米国,真实的上演了这一幕,我想如果有上帝,上帝一定是个有点恶趣味的家伙。
案件里,站在道岔口的人选择了拨动道岔,5个人得救了。许多人对她的选择表示赞同。
事实上,这道题,多数人会选择撞死一个人。因为如此选择的人们会说很简单,做做数学,为了最多数人的幸福。”
同学们纷纷点头。
哦,这就是电车难题哟!的确有些难!
隋老师继续说:
“如果以电车难题为基础来一次发散思维,你确实能得到大量难以解答的问题。
比如,无人驾驶汽车应该为了保行人而放弃驾驶员吗?
那么事故当头,老人和年轻人谁更应该做出牺牲?
如果车辆能获知附近驾驶员的信息,在车辆失控前它是否应该根据这些信息进行选择性的碰撞?
事实上,电车难题在无人驾驶圈已经是个绕不开的话题,麻省理工的工程师甚至专门众筹了一个‘道德机器’,旨在编写一个意见目录,以解决未来机器人在特定情况下该作何反应的问题。
不过,几十年来都没有答案的电车难题,其实本身就有个漏洞。”
隋老师停顿下来,然后问:“你们知道是什么漏洞吗?”
刘军民举手说:“编程的人,一定带有倾向性啊,他们的倾向,就是到的漏洞!”
刘俊豪举手补充:“工程师们众筹的道德机器,汇聚了大家的道德,也不能取得道德一致性吧?”
隋老师道:
“你们的回答都有一些道理。
实际上,在为机器人设定道德条件时,电车难题这个思想实验根本不及格。
如果硬要把它套进这一领域,特别是在制定政策、引导设计或回答一些人们关心的问题时,肯定会导致一些有关机器伦/理的危险且不完整的结论。
我们千万别让功利主义蒙了眼睛。
‘电车难题’1967 年诞生时,哲学家菲利帕富特探讨的是人的打算与他们预见的不同。
当时富特拿堕胎打了一个比方,如果产妇难产,是摘掉产妇的子宫放手一搏来救孩子(属于‘预见’的范畴,成了皆大欢喜,失败了就一尸两命),还是直接结束孩子的生命(属于‘打算’的范畴)来救产妇一命呢?
同样都是面对产妇难产,不同的处理方式会带来不同的道德结论。
富特当时还引申出了许多类似的情况,其中之一就与有轨电车司机有关。
另外一个则属于法官面对的难题,她设想如果法官不判处一位无辜群众的死刑,暴徒就威胁要冲击法庭。
第二个设想就与电车难题类似,法官要做出选择,到底是为了正义牺牲多数人的生命,还是为了多数人的利益牺牲无辜者。
经过一番研究,富特在论文中表示:‘大多数选择牺牲扳道员来拯救更多生命的人,如果碰上法官歪曲黑白剥夺无辜者生命时也会感到震惊。’
于是,她总结称,一个人做什么和一个人允许什么之间是有差别的,因此避免伤害和带来帮助之间的差别非常重要。
富特的论文虽然简短,但给现在的读者提供了一个全新的视角来看待无人驾驶汽车遇到的道德困境,而不是钻进‘电车难题’的牛角尖里爬不出来。
从某种程度上来说,这是因为富特遵循了大家所熟知的美德伦/理(来自古希腊亚里士多德)。
大家熟知的美德伦/理是什么呢?”
邓民中举手道:“利他主义!”
隋老师鼓励大家继续举手回答。
荣颜同学举手回答:“人生而平等!”
隋老师笑着问:“还有哪个同学回答吗?”
同学们都不在举手。
隋老师说:
“刚才邓民中、荣颜同学回答得不够准确。
美德伦/理,是指一个人的道德水平甚至可以和生命划等号!
不过,在讨论无人驾驶汽车时,大多数人会自动忽略美德伦/理,他们更重视无人驾驶汽车带来的最终结果。
在道德哲学里,这样的方式是与美德伦/理截然不同的,它的学名叫做结果论,而结果论中有个著名的分支功利主义。
也就是说,秉承这种理论的人在做事前会首先考虑自己行为可能导致的后果。
眼下,功利主义已经成了无人驾驶汽车修辞学中根深蒂固的思想,而在宣传时大家总是会提到无人驾驶汽车带来的全方位安全防护。
鉴于米国 2006 年因车祸丧生的人高达 3.7 万名且有 94%都是司机犯错,因此用可靠的机器人替换容易犯错的人类成了一件有百利而无一害的大好事。
不过问题是,只关注结果会让盲目的人们忘记原来无人驾驶汽车也有缺点。
就像富特提出的电车司机与法官的案例在道德上不能类比一样,无人驾驶汽车在相同情况下可能也会造成不同的道德、法律和公民后果。”