这就是为什么谷歌自动驾驶汽车技术需要更多的工作

这就是为什么谷歌自动驾驶汽车技术需要更多的工作

自动驾驶汽车再次成为新闻,这一次是关于事故中所发生的道德影响的新研究。

在几个有趣的例子中,研究人员提出了两害相权取其一的问题。

在一个例子中,有三种选择。机器人汽车必须在杀死一个过路人而不是人群或司机,杀死人群中的人,还是只杀死司机之间做出决定。这是一个可怕的情况,让我想起了在拉斯维加斯发生的事情,当时一个人类司机在人群中杀死了几个人(但她自己活了下来)。

这项研究实际上是进入了一个完全与技术无关的领域,至少现在还不是。作为人类,我们经常要做出艰难的决定,但我们并不总是始终如一。我们倾向于在当下做出决定,尤其是在恐慌的情况下,我们主要受多种因素的影响——比如,我们的情绪、一天中的时间、我们的嗜睡程度,甚至我们是否清醒。

报告指出,我们还没有很好地将这棵信息树解析成可管理的东西,这意味着我们也不会很擅长在自动驾驶汽车上对它进行编程。这甚至适用于特斯拉和谷歌。这意味着,我们首先需要一个“道德算法”,这将是一项艰巨的任务,即使是对世界上最聪明的机器人程序员。我的一部分人认为,即使他们很聪明,也许他们应该先弄清楚如何在非洲挖更多的井。

在汽车的机器人技术方面,有一些明显的优势,我自己也亲身经历过很多。机器人从不疲倦或喝醉。它可以同时朝各个方向看,而且不会被街对面写着“免费啤酒”的大牌子分心。我现在正在测试的2016款福特福克斯(Ford Focus)这样的汽车,其机器人技术可以持续、永久、无情地观察车道标记,并在你没有注意到错误时轻推你。人类,没那么多。机器人技术就像有100个不同的人和你在车里一样,所有人都在观察车周围的问题,所有人都对危险保持警惕,盯着车道标志,寻找其他的车。随着互联汽车革命的推进,我车上的100个机器人将连接到你车上的100个机器人。对每个人来说都是涅盘状态。

但事实并非如此。向谷歌道歉,自动驾驶是一件好事,但不是一件好事。这是渐进的,不是突破性的。汽车会轻推我们,刺激我们,他们不会很快做出完全可以接受的道德决定。这不仅仅是缺乏道德法则。让机器人拥有完全控制权的问题是,我们不太了解机器人对我们的编程做出响应这一事实。如果我们不对某个行为进行编程,这种行为就不会发生。

下面是一个例子。假设你在起居室里使用Roomba。干得好,你节省了无数个小时的劳动。这是一台智能机器,能感知家具并自动充电。然而,它一点也不知道泥土和沙砾的区别。不是真的。我以前见过一个Roomba把一堆新鲜的泥磨成地毯,当它试图提取材料时,高兴地在上面滚了好几次。在用吸尘器清理棉绒、灰尘、猫毛和一些零散的爆米花方面有了一个进步。Roomba的程序员可能不同意我的观点,但真空对泥浆的反应没有任何不同。它没有进行任何土壤样本测试。它被设定在一个特定的区域,并吸收它发现的任何东西,就是这样。

现在,回到汽车。也许我们的目标是想办法让汽车多推我们一点。正如特斯拉S车型展示人们睡觉和看书的视频所展示的那样,这并不是埃隆·马斯克希望人们如何使用自动驾驶功能。谷歌似乎更具侵略性,计划生产(最终)没有方向盘或刹车的汽车。你猜怎么着?汽车需要一段时间的方向盘和刹车。也许他们可以在每堵墙上都有保险杠的停车场里开车,或者沿着两栋楼之间的小路开车,但我见过人类司机在我所在地区高速公路上的思维方式。这不是道德问题。