{{detailStore.author.is_follow?'已关注':'关注'}}
文章
管理
当自动驾驶汽车面临道德问题 它会如何选择?
文章
通过电脑模拟,创意科技家 Matthieu Cherubini 提出了类似“电车难题”的伦理学问题:一个孕妇乘坐在自动驾驶汽车上,14 岁的女孩骑着自行车迎面而来,突然,一辆卡车横穿到自动驾驶汽车前面。这时候,自动驾驶汽车将如何选择?

Cherubini 认为,汽车的决策可以基于三个原则:一个是“保护主义”原则,汽车的首要任务是保护乘客安全。这与自动驾驶汽车制造商目前的做法类似;第二个是“人文主义”原则,汽车设法去拯救最多的人;第三个是“利益优先” 原则,汽车将保护最有价值的财产。


在第一个原则下,汽车应该撞上骑车人,因为孕妇的生命更为重要;在第二个原则下,汽车应该撞向货车,因为孕妇可能会流产,但是骑车女孩的死亡风险更大;在第三个原则下,自动驾驶汽车会认为,无论是那种选择,乘客的损失都会超过保险所得,但是,由于与卡车相撞的概率更小,它会选择撞骑自行车的人。

在 Cherubibi 模拟的状况中,人的生命总是受到威胁,自动驾驶汽车需要决定谁活下来,谁会死去。他想要提醒人们,道德决策是极为复杂的问题,很难简化为一种算法。当 Cherubini 开始研究自动汽车的道德问题时,他相信,机器道德不可能超越人类道德。但是,随着研究的深入,他开始重新思考,“如果你要思考机器道德,你必须首先思考自身的道德。我真的比机器更好吗?”他对 Fastcodesign 网站说。


那么,Cherubini 希望自动驾驶汽车采取何种算法呢?“当然,我想说自己是人文主义者。但是从内心深处,我只希望得到保护,获得安全。”

因此,他并不想给汽车制造商推荐任何算法。“如果一辆汽车在德国制造,符合德国的国情和文化,然后,它被进口到了中国。那么,这辆车或许无法适应中国的国情,”他说,“不同文化拥有不同的道德观。”

如果汽车拥有者可以选择算法呢?那仍然是有缺陷的。因为,那种情况下,每个人的生命要依赖于他人的道德选择。最后,Cherubini 提出了一个新方案,“它不用决定去做什么——而是随机行动,”他说,“我们现在就是这样。我们不去思考撞这个人还是那个人——我们惊慌失措了。你不需要确定其他人的价值,认为某人更应该受到伤害。”(题图来自 digitaltrends)

本文转载自“爱范儿”,作者:积木,新出行已获授权转载。

写评论
积分赞赏
点赞
评论区
  • 编辑
  • {{is_favourite ? '已收藏' : '收藏'}}
  • {{is_personal_top ? '取消主页置顶' : '个人主页置顶'}}
  • 举报
  • 加入黑名单
  • 删除
  • 取消置顶
  • 置顶推荐
    • 6小时
    • 12小时
    • 24小时
    • 3天
    • 一周
    • 长期
  • {{digest?'撤销精华':'设为精华'}}
回到顶部
  • 全部评论{{detailStore.commentnum}} 条
  • 只看作者
  • 最热
  • 最新
  • 最早

「待审核」

{{ comment.relativeTime }} 已被赞赏 {{comment.integral}} 积分 回复

暂无相关评论

发表一下个人看法吧