试想这样一个场景,绿灯亮起,准备过斑马线的你与准备右转的司机面面相觑,你向前迈一步,司机也正好向前挪一点,你们都能从双方的眼中看到一丝弥漫在空气中的尴尬。
这时,往往是司机率先“破冰”,他挥挥手向你示意,你仿佛能从他的眼神里读到:
“Hey,帅小伙,你先过。”
但是,如果这辆车被替代成一辆自动驾驶汽车,这种尴尬的情况该如何解决呢?你还敢一步一挪,和数字化的AI智能进行博弈吗?
这里衍生出一个关键问题,在未来自动驾驶场景下,如何让自动驾驶汽车如何与行人“交流”?
车云菌认为,人类对未知的恐惧以及人类行为的不可预知性,是自动驾驶汽车要与行人建立沟通的根本原因。
此外,还有一个问题。即使在未来的完全自动驾驶时代中,我们还是会保留手动驾驶的功能。所以,如何让行人知道一辆车是否正处于自动驾驶模式中也是有必要的。而这,也是自动驾驶汽车与行人建立沟通的前提。
围绕以上两个问题,车企和自动驾驶创企们就开始大开脑洞了。
自动驾驶汽车=警车?
警车通过它独特的外观、外部的文字提示、灯条的闪烁以及共识性的鸣笛声设计,与社会车辆区分开。从某种程度上来说,在我们向完全自动化迈进的过渡阶段,能在马路上跑的自动驾驶汽车还是在少数,所以,它的与外界“沟通”的目的效果,应与现在的警车相类似。
在车云菌看来,以下各公司在设计自动驾驶汽车时,也借鉴了设计一辆警车的想法,其中以吴恩达主导的自动驾驶创企Drive.ai首当其冲。值得一提的是,Drive.ai在创立之初,就考虑到了人车沟通的问题。
2018年7月,Drive.ai正式在德州推出无人驾驶打车服务,亮橙色的车身颜色以及遍布全身的“Self-Driving Vehicle”字样,让行人看到它的第一眼,就知道这是一辆特别的车。
而它周身环绕的4块LCD显示屏,当车辆礼让行人时,其显示屏会显示“您先过”的文字提示,同时该车也通过显示屏来向行人传达该车是否有人驾驶的信息。
虽然该车在外观上下了很大功夫,能让行人意识到这是一辆自动驾驶汽车,但在与行人建立沟通这个环节做的还不够。
其与行人交互的唯一渠道就是4块显示屏,方式稍显单一,且显示屏尺寸也稍显局促,对行人的视觉冲击不足,甚至会让行人在读取信息时浪费掉不必要的时间,影响效率。
最近,福特做的三色灯条视觉语言测试则更为完善一些。福特在其Transit Connect货车顶上安装了一个灯条,该灯条可以闪烁白、紫和蓝绿三种颜色的灯光,以此来提示行人该车目前的状态以及下一步的行动。
此外,去年名声大噪的zoox在福特的基础上,还给其原型安装了定向音响系统,该系统能够通过发出各种不同的声音,来提示行人。
ZOOX的原型车
毫无疑问,福特与zoox的设计一定比Drive.ai更能引起行人的注意,但他们也有自己稍欠考虑的地方。
比如,使用灯条作为人车之间的传递信号,对于视觉障碍患者就不太友善。其次,发光灯条不仅要保证在白天足够亮,能够让行人注意得到,还要确保在夜间不要太亮,影响他人正常通勤。
或许让灯条亮度在日夜间自由切换,能够通过一串代码或者一个传感器就能做到。但是,你能想象一群发着光的车在马路上向你驶来的情形吗......多费电啊。
显然,茫茫多的灯条会对人的视线造成很大的困扰,但奔驰的一项名为Digital Light的大灯技术则很好的解决了这一问题。当车辆在行驶过程中检测到行人横穿公路时,其能够自动施加制动,然后将虚拟的斑马线投射到前方道路上,以此示意行人先行。
不过该技术也有一个明显的缺点,就是成本较高。一套分辨率高、能见度远的激光大灯的价格不言而喻。此外,与这套系统关联的雷达、摄像头也会给本就高度自动化的汽车带来额外的负担。
最后再来说一下两家打车公司,Uber和Lyft。
2018年3月,Uber申请了一项专利,这家公司试图利用汽车闪光灯和声音与行人建立沟通。同年12月,Lyft发布了一款名为自动驾驶车辆通知的系统。据介绍称,该系统能通过车窗屏幕将信息反馈到行人。
Uber和Lyft的设计足够新奇,为这一领域带来了新鲜的血液,但目前也只是停留在“想法”阶段。
拟人化概念带来的可能性
看到这里有朋友可能会问,为什么每家公司的设计都不够全面?有没有一种更好的设计方式?
关于第一个问题,车云菌认为原因在于,无论是Drive.ai、福特还是zoox,又或者其他几家公司,他们在设计自动驾驶汽车时都没有脱离“如何设计一辆警车”的思维桎梏。只是设计了一辆相对特殊点的车,而没有真正把自动驾驶汽车当作一个划时代的产品去设计。
所以,如果只是设计一辆这样的车,小编也可以设计出一个结合了他们所有特点的“最强综合体”。
集合了以上所有的设计语言,够全面。但是,所有的缺点也都揉在了一块。SDC,全称Self-Driving Vehicle(自动驾驶汽车)
至于有没有一种更好的设计方式,车云菌则是在捷豹路虎提出的“虚拟眼镜”概念上看到了一些可能。捷豹路虎直接将一双“led眼睛”安到了车上,以此来进行交互。
当行人从它面前经过时,这双眼睛可以跟随行人移动的步伐,与行人进行“眼神交流”,让行人知道其已经注意到他们了。
都说眼睛是心灵的窗户,那么AI汽车也需要一双“眼睛”吗?
要知道,自动驾驶汽车在向行人传递信号时,无论是使用照明、文字还是声音语言,他们都有一套自己的逻辑。虽然百花齐放,但是却也让人类混乱不堪。汽车上新的颜色外衣、不同语言的隔阂、各种灯条发光的含义等诸多问题,是需要人类自己去学习、适应的。
而“虚拟眼睛”概念的可贵之处在于,眼神的交流是没有阻碍的,喜怒哀乐的五官表情更是全球通用的。
试想一下,在未来智慧城市中,当一辆车开启自动驾驶模式之后,它前脸的LED大屏就会打开、反光镜立起,宛如一只小猫刚睡醒一样,竖起耳朵、打着哈欠,用它两个大眼睛对你挤眉弄眼。如果未来人车协同达到这样的状态,会不会更有意思呢?
总而言之,一个更高级的设计语言,应该是让车去适应人,而不是让人去适应车。而拟人化的设计语言,可能会是未来的一个趋势。