当你乘坐无人驾驶的汽车时,突然有五个人出现在你高速行驶的车的前方,而且当时已经没有时间让汽车停下来,这时,汽车可以选择选择猛打方向盘,让车偏离道路,这样可能会导致车上乘客死亡;它还有可能选择径直轧向那五个人,导致行人的死亡。无人驾驶汽车应该怎么做?或许这个问题应该是,汽车编程人员教会汽车应该做什么?那么又是谁来告诉程序员应该怎么做呢?
社会价值决定生死?
在人工智能时代,每一个关于道德的问题似乎都在引发另一个问题。利兹培根教授是英国格林尼治大学建筑、计算和人文学科的副校长,她还拥有人工智能博士学位,是英国计算机协会的前任主席。上周在墨尔本举行的国际人工智能联合会议上培根教授表示,那些关于AI的法律的辩论仍面临着大量复杂的问题亟待解决。
在上述无人驾驶汽车的例子中,培根教授表示,在汽车中输入的程序需要取代人类在同样情况下所做的思考。“现在作为一名司机,你必须做出一个瞬间的决定,但对于自动驾驶汽车,你必须通过编程来判断其后果。”在没有选择的情况下,你会怎么做?
“你可以直接用数字来解决。”汽车可能会说,“我要离开公路,选择牺牲自己车里的人,而不是那五个行人。”这取决于汽车的人工智能设计,以及人们对社会的价值。比如说汽车里的人碰巧掌握治愈癌症的方法,而路上那五个人都是越狱的逃犯。
“也许你说他们对社会的价值更少,所以你可能会说‘我要把那个人留在车里’。如果你真的考虑到人们对社会的价值,那就会产生可怕的后果。”如果你有一台电脑可以进行瞬间的查找,自动驾驶汽车有各种各样的关于他们周围的人的知识来做出实际的决策。想到如何去编这个程序是很可怕的。接下来的问题是,如果你对算法进行编程,说“杀死这些人”,那么法院是否会认为这是蓄意谋杀?
偏见or蓄意谋杀?
培根教授说:“人们制造自动驾驶汽车就是个巨大的社会道德问题。”他还表示政府需要站出来,解决这些棘手的问题,“政府应该迎头赶上,但我认为他们没有。他们的立法往往落后于现实。我认为他们需要尝试制定一些相关法律。对决策的实际微调可以在公司层面进行,在中层管理层面上,它可以在程序员的实际水平上完成——这就是我们存在潜在偏见的问题,可能是有意识的偏见或无意识的偏见。”
当你的工作是为无人驾驶汽车编程时,你可能会不同意公司关于自动驾驶汽车应该如何处理不同路况的问题。你会让汽车去撞死行人,不惜一切代价保护车上的人吗?对此,培根教授说:“偏见会在任何程度的生产中蔓延。每个人都有自己评判对错的标准,也有自己的个人底线,知道自己能够与之互动。如果你处于压力之下,你不想失去工作,你的老板会给你施加压力,让你做一些你觉得不舒服的事情,这是非常困难的。
黑客操控僵尸车引发的担忧
《速度与激情8》里的僵尸车让人们看到了无人驾驶汽车被黑客入侵的场景。现实中,在美国有黑客成功侵入了汽车,并改变了汽车的路径轨迹,其中包括自动踩下刹车等。“在全球范围内,人工智能可以发挥巨大的作用。但可悲的是,有些人想要伤害我们,他们是不道德的。”培根说:“如果你想要在车里杀一个人,你就可以侵入他们的汽车,理论上,他们可以把车开到悬崖边或者撞到墙上。你可以让它看起来像个意外。”
此外,培根教授还说,虽然我们的道路上仍会有许多死亡案例的发生,但自动驾驶汽车的带来,会大幅削减人为驾驶导致的死亡人数,但是也有可能会带来新一轮“不同类型的死亡”。比如,人类司机可能会杀死A,但自动驾驶汽车可能会杀死B,因为他们的算法不同。
”除了自动驾驶汽车,培根还补充说,人工智能将会渗透到其他领域,比如战场。“不久之后,我们就不再把人送进战争了,”她说。“我们派无人机和机器人参与战斗,帮助我们发射导弹。”人们远程控制机器人进行战斗。这就是未来的发展方向,很有可能会成为现实。“从这个意义上说,当我们有能够做到这一点的机器人时,人们在前线被杀的可能性会更大。这改变了战争的性质,改变了决策的性质。”
当车祸发生,谁应被起诉?
当我们的亲人被无人驾驶汽车撞到,我们应该去起诉谁?“这是个大问题,”培根说,“我确实认为,在立法方面,我们需要政府的帮助,因为这是一个非常困难的问题。”关于如何起诉机器人,有一些讨论,不过我不太明白这是怎么运作的,因为机器人没有银行账户和钱。无人驾驶汽车的发开涉及很多利益相关者,我真的没有答案。“但保险公司必须要找到答案,因为当事情发生时,他们必须知道谁是罪魁祸首。”这是一个大问题。
目前还没有多少人了解在道路上使用无人驾驶汽车的意义,而这是一项需要在发展过程中就开展教育的技术。培根说:“我认为整个社会都需要接受这种教育,这样他们就能理解人工智能是什么,理解它对生活的影响。只有在弄清楚了这一系列事情之后,他们才有资格做出自己的判断。”最重要的是,培根说,“信任将是关键。”她说。“推出无人驾驶汽车的人不会卖任何东西,除非人们真正信任这项技术。