应用

技术

物联网世界 >> 物联网新闻 >> 物联网热点新闻
企业注册个人注册登录

自动驾驶汽车必谈道德困境

2019-04-08 09:36 汽车HMI进化圈Nico

导读:即使自动驾驶汽车决定杀人的特殊情况可能不到0.001%,但是风险因素如何分配?

自动驾驶,无人驾驶,自动驾驶,道德困境

图片来自“123rf.com.cn”


每个人都曾想拥有自己的自动驾驶汽车,但自动驾驶汽车并不完美。首先需要肯定一点,自动驾驶汽车仍然需要像你和我一样做出决定,而这样的结果是它们并没有完全消除碰撞的可能性,从某一个角度来看,自动驾驶汽车只是减少它发生的可能性而已,越来越多在自动驾驶模式下的汽车发生事故的报告能说明这点。

诸多的自动驾驶汽车事故报告可以表明,自动驾驶汽车不会主动去碰撞行人(杀人),而是选择被动情况下不得不碰撞行人(被动杀人),汽车不会故意杀人,但如果发生碰撞,自动驾驶系统中会有相关机制告知自动驾驶汽车不能做什么。如果让自动驾驶汽车选择在两个不同的人群之间碰撞,那么选择不杀死一个人对另一个人来说则是致命的,这反映的一个问题就是自动驾驶汽车的优先项和他的“价值观”,这是自动驾驶机制编程人员的一个基本考虑因素,因为他们决定计算机的功能,以及汽车在各种复杂工况中的行动方式。那么是谁,通过什么方式以什么形式确定的优先项和机器的“价值观”呢?

如果你在Netflix上观看了Circle(2015),你就会知道它是怎么回事!这部剧能让我们思考人类的未来,以及我们每天做出决定对别人的影响 -每个人都要拼命“活在当下”,证明他们的价值。电影的前提很简单:影片讲述被俘虏的人,面对即将到来的处决,五十个陌生人被迫从中选择一个值得存活下去的人的故事。Circle是一部关于人性的电影,当我们被迫在最坏的情况下做出决定时,我们如何评价彼此以及人们如何反应。这部电影讲述了什么使我们成为人类的核心——我们是谁,我们相信什么,以及最终,我们将会花费多少时间去拯救我们自己 ,但是自动驾驶汽车似乎没有这么多人性和道德的考量!

道德选择并不通用

你认为正确的道德选择很可能与你周围的人想的完全不一样。因为道德是主观的,而 每个人的价值观都不同。无论你喜欢与否,我们都必须承认的一点是我们的选择都是缺陷的:我们根据我们过去的经验和预判及偏见来做出决定, 关于你是否应该在事故中拯救A或B也很难辩论,因为你根据你已经制定的一些抽象标准以及社会接受的东西判断一个人的价值。 什么是好人的标准在哪里? 因此,除了通用道德之外,人们普遍认为“对社会更重要”是评价的标准之一。医生,孕妇和孩子是更值得关注的人,即使在泰坦尼克号上,妇女和儿童也是第一批登上安全船的人,这种道德选择已经深入人心。

看着不同的人做不同的选择是一件很有意思的事情。做选择能体现人的性格,就像Trolley problem问题一样。电影Circle结束时,您可以看到不同房间中的其他组决定谁能活下去的结果,很让人震惊。如果我们回归到“生活主题”中:我们应该思考我们该重视什么:是群体还是个体?

用户(有时)永远是对的

如果发生车祸,而你怀孕的妹妹和她的丈夫正好就在其中,如果你是一名医生或随机的一名陌生人,大家都不难猜测,你会来救你的妹妹和妹夫。 但是如果车祸中还有其他随行乘客呢,为了拯救你的家人,随行的乘客将不得不死你会作何选择。你可能仍然会救你的妹妹和妹夫,这时候我意识到,因为人们并不总是想要拯救乘客,更多的关注杀死了多少人和什么类型的人。

可以对汽车进行编程来实现“最佳情况”, 这看起来很容易。但困难的是,没有人愿意买一辆在发生事故时牺牲乘客的汽车,这对企业来说很糟糕,这对他们的营销或销售产品时带来选择困境,自动驾驶汽车是否应该被编程不惜一切代价来避免事故?如果怀孕的母亲和丈夫违反交通规则的情况下该如何选择?就目前来看仍然没有确定的答案。这篇文章的构思启发源于麻省理工学院的测验,让你在自驾车的不同场景中选择行动(选择谁不被杀)。 在测验结束时,他们会为您提供结果摘要,令人惊讶的是,我的“最佳拯救角色”是一位女医生,而我最“被该杀的角色”则是一位老人,我觉得结果令我很沮丧,但就其实际以及我个人的偏见和经验而言,结果仍然是有道理的。

此外需要注意的是,这并不一定是您处于该情况时将执行的准确且唯一操作,因为理论与实践中的一切都有所不同。 如果感兴趣可以参与道德测试:道德机器 ?- 麻省理工学院。

性别偏好

当您看到结果时,您还会了解到与你一起参加测试的其他人的结果。总的来说,人们倾向于挽救女孩而不是男孩。这可以追溯到一些古老的生物学推理,因为女性的主要角色是繁殖和生育,而这依赖来自于对女性的刻板印象,即女性是“照顾者”并表现出母性行为,这使得杀害她们更加残忍。

这个结果很有趣,因为即使当今世界的人仍然很多人认为在求助选择时候选择一个女人而不是一个男人。虽然这个小样本量并不是一个很具有代表性的统计数据结果,但确实提供了一种暗示性的趋势。如果你考虑性别角色和过去的男性优势,你仍然能够预测到未来的潜在结果如何。当然我并不知道偏见不会彻底消除,因为我们可以发现这种偏见已经渗透到了各个领域!

人类>动物

人们不仅拯救女孩而不是男孩,而且还会一次又一次地拯救人类超过动物。有一个物种偏好,仅仅因为我们是人类并具有自我保护的基本本能。如果你与那只动物有所属关系,比如它是你的宠物,那可能就会略有不同,这恰恰反映了人自私的本性。

抛弃老人,留下幼童

前面我曾经说过,上述实验中我的“杀死最多的人物”是一位老人,我不知道我是否潜意识的同意这一点,但我很明确的认为老年人有价值。 无可否认,根据过去的经验,老一辈人是智慧和知识的载体。虽然他们可能没有以最典型的方式为社会做出具体贡献,但谁能说他们的知识和/或智慧无效呢?

 当然,时代变了,几个世纪前的智慧和经验并不适用于当代社会。当我们做选择的时候,我们仍然可能倾向于拯救这些幼童,因为他们还没有完整的拥有过自己的一生,而老年人已经体验了他们经历的一切,我知道这就是我所做上述选择的原因。因为在我所救下的那个年轻人很可能是下一个伊隆马斯克,很可能会对社会带来更多价值,但从反面来看,这个年幼的孩子有可能也是坏人,但这是一个事实,无论你喜不喜欢,其实我们决定不了这个幼童的未来走向,但我们仍然更倾向于拯救他们。

留下医生

在做决定时,我发现倾向于拯救医生而不是流浪者。我并不是唯一一个做出这样选择的人。我认为这不是一种好的思维方式,因为社会地位不应该是你生还是死的决定因素。

所有国家都表现出令人不安的选择偏好,即拯救地位较高的人,例如,高管人数超过流浪者,我们也发现这与一个国家的经济不平等程度密切相关,在存在更大的不平等的情况下,更倾向于牺牲无家可归者。

我们重视医生,因为我们认为他们的工作对人类的生存至关重要,事实上确实如此,不是每个人都能做到这一点,医生需要接受大量的教育才能开始就医,但是医生不是每个人过好生活所需的唯一角色,我们不能忽视的一点是,没有农民,我们照样不能吃到饭菜,没有工程师,就没有桥梁和工厂,没有教育工作者,你将如何学习?

这让我意识到测验本身是有缺陷的,因为给出的关于不同选择的信息是有限的,但是缺陷不来源于测试,而是源于固有的社会缺陷和社会偏见,我们对一个人的重视程度是基于他们对社会的贡献吗?我们的答案很多时候是肯定的。

如何定义正确和错误?善与恶?

把这个问题想成“选择不杀谁”是很苛刻的。但这是我们处境的现实,我们都知道。

那么答案是什么?在发生事故之前,你只需要踩刹车...... 哈哈,不 - 我只是在开玩笑。虽然这是一种可能性,但制造自动驾驶汽车必须考虑到大量不同的情况,包括你不能踩刹车而汽车必须做选择的情况。关于自动驾驶汽车杀人的道德决定,这可能是罕见的(或我们希望是),但是不可避免的问题, 而这个问题最大的隐患在于没有真正的答案。目前来看没有关于什么是“正确”和什么是“错误”的机制,我们每个人都会拯救不同的人,那么谁的道德规范适用于自动驾驶汽车? 这种自动驾驶汽车决定杀人的特殊情况可能不到0.001%,但是风险因素如何分配?

我对这些问题没有全部答案,但我希望我们能一起思考。