• 发文
  • 评论
  • 微博
  • 空间
  • 微信

在伤害不可避免的情况下,自动驾驶汽车算法应遵循哪些道德原则?

全球汽车快讯 2024-03-07 10:51 发文

全球汽车快讯 据外媒报道,考虑以下场景:您是一位乘客,所搭乘的自动驾驶车辆正在高速公路上行驶。突然,在您车道正前方,有一辆行驶中的卡车突然刹车,然后紧急停车。此时,您搭乘的车辆被车道左右两侧的摩托车和 SUV夹在中间。

这时,车载人工智能就面临一个关键的决策:这辆自动驾驶车辆应该保持其行驶路线,然后与前方的卡车相撞?或是转向规避卡车?若是左转,可能会撞向左侧车道的SUV?若是右转,可能会撞向右侧车道防护较差的摩托车。

那么,该如何抉择呢?每个决定都可能会产生不同的结果——不论是对您(可能还有您的乘客),还是其他两辆车的乘客,亦或是骑摩托车的人,每个决定都将攸关性命。与人类驾驶员的本能反应不同,这种抉择是汽车高级编程的结果,是种半计算的响应。

自动驾驶汽车预示着,未来的交通事故数量将大幅减少。随着自动驾驶技术的发展,机器驾驶替代人工驾驶,消弭了人为错误,道路交通将变得更安全。

您不妨想象下——更顺畅的交通流量、更清洁的空气以及令心情从紧张转为高效和放松的日常通勤。然而,尽管事故频次减少了,但事故依然会发生。

当哲学家——菲利帕·福特 (Philippa Foot) 于 1967 年提出看有轨电车难题(Trolley Problem)时,她可能并未预料到,这种教学中的两难窘境会在五十多年后的现实世界中出现,正如其字面意思一般。

有轨电车难题不再局限于个人决策领域,如今,在自动驾驶车辆的编程中,该难题再次浮现,使得半个世纪前的哲学讨论在当下技术进步的背景下,出乎意料的相关。

在概念化这个问题过程中,福特旨在探索决策的道德复杂性。在这些决策中,人们必须权衡,以较小的代价来应对更大的伤害。该困境的核心在于——选择主动造成较小伤害(改变电车的路线以杀死一人,而非多人)或被动允许更大伤害(不干预,导致多人死亡)。

将道德准则融入人工智能算法的想法为古老的道德哲学注入了新的活力——在伤害不可避免的情况下,自动驾驶汽车算法应该遵循哪些道德准则?在人工智能及自动驾驶汽车时代,这些长期存在的道德理论似乎有可能适用于编程算法。问题是这些理论是否足以指导如此复杂的、现实世界中人工智能的决策场景?

你想驾驶一辆结果主义/功利主义的自动驾驶汽车吗?

让我们从功利主义/实用主义(utilitarianism)开始谈,这套道德理论最常与18世纪的英国哲学家——杰里米·边沁(Jeremy Bentham)和约翰·斯图尔特·穆勒(John Stuart Mill)联系在一起。

道德计算的形式是根据行为的后果来评估行为——赞同能为最大多数人带来最大幸福或“最大利益”,反对会最大多人造成伤害的不利结果。

这意味着,重视结果胜于重视意图,这样的道德计算真的可以作为自动驾驶汽车编程的一般指导原则(general guiding principle)吗?

功利主义的支持者主张以中立、冷静的立场进行决策。当应用于自动驾驶汽车编程时,这可能需要“以牺牲乘员利益为代价”的自动化选择。

在假设场景中,将功利主义作为自动驾驶汽车人工智能的指导原则,尽管绝大多数人都认可了这一点,但他(她)们同时表示,对于这种在面临有轨电车难题时,未将乘客安全视为最优先级的自动驾驶汽车,他(她)们是不太愿意购买的。

这种公众对自动驾驶汽车认知的悖论提出了一个独特的挑战。尽管自动驾驶汽车具有潜在的安全优势,但这种矛盾可能会阻碍其广泛应用。如果这些车辆的编程因其潜在的功利主义取向而阻碍个人使用,那么,在其市场可行性及和公司研发的动力/激励方面,不由会引发质疑。

功利主义有时也会导致直觉上看似不合理的决定。定义“最大利益”的模糊性有时会使事情变得复杂。我们是否应严格挑选伤害较少个体的选项,即使这类选择的道德清晰度是模糊的?

想象一下这样一个场景:一辆以功利主义原则为行事准则的自动驾驶汽车面临着不可避免的事故。该车行驶在繁忙的街道上,车辆前方遇到五个正在穿马路的行人。这时,刹车失灵了,只留下了两个选项:1. 车辆继续前进,可能会伤害或杀死五名行人。2. 车辆转向,驶入人行道,危及人行道上的一名行人。

该算法秉承功利主义,会选择车辆转向、伤害乃至杀死人行道上的一名行人,而非正在穿马路的五名行人。在这种情况下,人行道上的行人被视为“无辜的旁观者”,行人们对安全有合理的期望/预料。

因此,自动驾驶汽车转向,驶向作为非参与者的行人,该决策违背了这一期望,从而说明了关键的道德区别:主动造成伤害VS被动容许伤害。

这种情况反映了道德哲学中的一场重大辩论,义务论者反对违反道德规则,即使该行为是为了更好的结果。他(她)们可能会争辩说,创建一个“旁观者为了拯救路上其他人而随机陷入危险的社会”可能无法带来整体幸福。

现在想象一下,一辆自动驾驶汽车在路上行驶时,遇到不可避免的突发情况,需要转向。左边是一名戴着头盔的摩托车手,右边是一名没有戴头盔的摩托车手。

自动驾驶汽车的车载人工智能必须瞬间做出决策:若向左转,则可能会撞到戴头盔的摩托车骑手(凭借其安全防护装备,戴头盔的骑手可能有更高的生存机会);若向右转,则可能会撞向无防护的摩托车骑手。

根据结果主义/功利主义计算的要求,会选择(撞向)戴头盔的摩托车骑手,该决策似乎是在惩罚戴头盔的骑手,前者反倒因采取主动安全防护措施而被自动驾驶汽车撞了。

自动驾驶汽车应该遵循普遍原则吗?

在这种情况下,前文的举例表明了结果主义方法部分固有的局限性。然而,若是以下驾驶情境呢——需要伤害两批同等数量的人,且两批人并不属于同一类群体?在这种场景下,自动驾驶汽车应该如何做出判断呢?

想象一下,自动驾驶汽车可以根据年龄、性别或社会地位评估每个生命的“价值”,这就引入了平等主义和精英主义之间的伦理辩论。平等主义主张平等考虑所有生命,精英主义优先考虑具有更大价值或潜力的生命。

有趣的是,在假设的情况及调查中,当面临“我们应该拯救谁”的选项时,他(她)们的偏好往往会暴露出对某些群体的偏见。然而,当可以选择平等对待所有生命时,许多人转向平等主义,这表明在定生死的决策中,人们更倾向于公平,而非精英主义。

自动驾驶汽车决策中的道德偏好是遵循普遍性原则还是具有文化特定性?这个问题也很有趣。一项涉及 233 个国家/地区的受访者、涵盖超4000万个假设决策的综合研究就揭示了显着差异,呈现出三个不同的国家集群:

西方国家集群表现出“不作为”的偏好,无论结果如何,都会维持汽车当前的轨迹;

东方国家——包括许多中东和亚洲国家——倾向于保护守法的个人和行人,但在优先保护年轻人而非老人方面,没有明显的偏向性;

第三个集群主要由拉丁美洲国家和一些前法国殖民地组成,倾向于拯救女性、拥有较高地位的个人和年轻人。

任何单一的理论能理解复杂的情况吗?

在自动驾驶汽车持续发展的格局中,当数百万辆自动驾驶汽车上路时,我们在这里考虑的看似不太可能的道德场景,很可能会成为真正的问题。

这种情况的复杂性和不可预测性凸显了一个关键点:目前还没有单一的道德原则或理论能全面、恰当地指导人工智能进行这些复杂的决策。

在理想情况下,一个简单的道德框架将指导这些决策,但过度简化或将引发在道德层上值得怀疑的结果。

讨论表明,理论伦理与现实世界的应用之间存在巨大差距,更遑论在某些情境中,人工智能必须做出决策且该决策会对我们的道路产生深远影响。

在进行这类辩论和推敲这类思想实验时,我们应注意到,对自动驾驶汽车进行编程却并不简单——尤其是在使用深度神经网络时。这些系统虽精通模式识别,但在确保完全可预测的决策方面却面临挑战。

这类决策依赖于广泛的训练数据,使得在罕见、复杂情况下,具体的结果变得不确定。神经网络缺乏明确的道德理解,使得特定道德原则的执行成为一项重大挑战。

因此,即使手头有完善的道德框架,将这些原则有效地转化为人工智能的决策过程,并确保一致遵守,但这仍是一项艰巨的任务。

此外,值得注意的是,我们的讨论基于这样的假设:自动驾驶汽车的车载人工智能可以预测碰撞的结果——无论是死亡还是受伤——这在现实世界中可能并不成立。这类人工智能系统准确预测谁会在事故中生存或死亡,车载人工智能的能力可能并不像我们想象的那么可行。

完全不受驾驶员干预的完全自动驾驶汽车的诞生也并非指日可待。这与科技公司之前设定的预期形成了鲜明的对比,这意味着,目前人类仍将负责大多数的驾驶决策。

尽管如此,这不应阻止我们解决当前复杂的道德问题,亦或是随着人工智能在我们的道路上发挥越来越大的作用而可能随之出现的问题。(本文为编译作品,所用英文原文和图片选自abc.net.au)

声明:本文为OFweek维科号作者发布,不代表OFweek维科号立场。如有侵权或其他问题,请及时联系我们举报。
2
评论

评论

    相关阅读

    暂无数据

    全球汽车快讯

    **汽车热点新闻和技术新闻,欢迎...

    举报文章问题

    ×
    • 营销广告
    • 重复、旧闻
    • 格式问题
    • 低俗
    • 标题夸张
    • 与事实不符
    • 疑似抄袭
    • 我有话要说
    确定 取消

    举报评论问题

    ×
    • 淫秽色情
    • 营销广告
    • 恶意攻击谩骂
    • 我要吐槽
    确定 取消

    用户登录×

    请输入用户名/手机/邮箱

    请输入密码