主持人:各位朋友大家上午好!我们今天开始从ADAS到自动驾驶的会议,我是来自于吉利汽车研究院的刘卫国,非常荣幸在里主持分论坛。
首先进行第一个演讲,大家知道随着自动驾驶的发展,需要的计算量越来越多,英伟达在AI这一块全球非常著名,在行业影响力也非常大,所以接下来有请英伟达自动驾驶方案架构师程亚冰先生,给我们介绍“英伟达AI超级计算及助力自动驾驶”,有请。
程亚冰:大家早上好!很荣幸今天有机会讲解一下英伟达对自动驾驶的理解以及解决方案,我今天演讲主要分为三个部分。第一个部分主要讲深度学习,深度学习是人工智能的有效方法,也是英伟达的优势所再。第二部分是AD应用于自动驾驶。第三部分讲一下解决方案。
首先看一下第一部分深度学习,在2012年的计算机视觉大赛上,从当天开始很多研究者关注深度学习这个技术,在每一届挑战赛上我们都可以看到深度学习技术基本上统治了算法,2015年的时候微软公司推出了深度学习神经网络。以上所有的例子都说明深度学习作为一门技术,很多手段上超过了人类的水平,以深度学习为代表的人工智能技术已经能够帮助人们解决目前棘手的问题。
我们看一下深度学习获得长足发展的几个因素。第一个因素就是深度学习的发展,这几面越来越多的研究机构以及大公司,都在投资巨大的资金在深度学习算法和神经网络进行研发。第二,海量的数据,这是大数据时代,每天都会有巨量的数据产生,以目前深度学习主要还是在监督学习,如果没有大量标注好的数据级作为输入样本的话,我们的深度学习没法得到良好的训练,也就没法实现高精度的图像识别,或者语音识别的信息。
还有一个更好的运算力,深度学习算法在二三十年前提出了,直到这几年才被产业界应用到各领域,其中受限于计算力有限,很多深度学习没有办法部署到硬件平台上实现的。2011年的时候来自斯坦福大学的吴文达(音)教授首先在CPU上尝试深度学习,到目前为止全世界所有的研究机构、研究者和大公司都采用英伟达的GPU平台作为深度学习平台。目前英伟达在GPU成为所有研究人员的计算平台呢?我们看一下CPU和GPU的架构。
CPU的处理器核心是非常有限的,以目前电脑的配置也就是四核、八核,GPU的话可以达到5120个处理器核心,这样其实好多并行运算可以在GPU上获得极大的加速,在我们的GPU硬件平台之上英伟达抓住了人工智能的浪潮,也丰富发展了软件协议展,我们推出了软件压缩库,深度学习很多算法都是矩阵计算、乘加计算,现在深度学习工具和框架都选择英伟达作为计算平台,比如说谷歌、Facebook等。
2012年是人工智能的爆发元年,至此之后许多高科技公司、研究机构都纷纷在人工智能上布局,迄今为止全世界有超过1000家的人工智能初创企业,现在已经超过2000家了,人工智能是非常大的领域。我们今天所讲的自动驾驶 其实是其中的一部分,所以说这就引出了今天讲的第二部,就是人工智能应用于自动驾驶。
首先我们看一下自动驾驶它整个发展,迄今为止全世界有30家企业在美国加州申请了无人驾驶路测,全世界主流的汽车厂商高科技公司、都在布局自动驾驶,这里有很多大公司,比如说前一段时候我们在GTC2017上丰田公司和英伟达合作,丰田选用英伟达的GPS平台,以及奥迪基于英伟达的平台,会推出高级辅助驾驶汽车。国内方面以百度为首的公司也与英伟达达成了战略合作伙伴公司,这一次CES2017年展会上,百度与英伟达达到的自动驾驶协议,并且量产。
自动驾驶是非常复杂的系统,大不像图像识别这么简单,在自动驾驶当中开发的难度是非常大的,自动大使需要大量的车载硬件和众多的传感器融合,比如说像机、红外线、GPS、毫米波雷达、激光雷达等以及多个模块协同配合。对于高精地图分为静态地图和动态地图,可以在自动驾驶车商用以后,通过自动驾驶车辆的传感器获取实时的环境,对于高精度定位快,我们看到很多公司有三个层级,第一层级是使用高精度的GPS何以实现厘米级的精确度,这种成本已经高。
另一种是使用民用的GPS,它可以实现分米以及米级别的定位精度,目前还是自动驾驶的早期,所以可以看到比如说采用双目摄象头去实现定位,这种算法像视觉里程计误差是累计的,如果你的机器长时间运营的话,根本就无法精确定位。感知模块是比较成熟的模块,也是很多公司擅长的领域。把网络训练好之后就可以感知周围的环境和物理属性。第三张图当中的路牌、路标的信息,它可以和高精地图进行匹配,实现更精度的定位。
驾驶这一块是自动驾驶最复杂的模块,细分的话包括决策模块、路径规划模块、反馈控制模块等。传统的地图当中,比如说这次是从北京到上海来,地图可以给我从一个全局规划出最优的路径,怎么从北京到上海的路径最短,这是传统静态全局的路径规划,但是在自动驾驶系统当中,不仅要有全局的规划还要动态的规划,前面的行人、车辆活动的物体都可以改变我路径的因素,包括事故、交通堵塞等。但对于动态路径规划业界还没有很好的办法进行处理,尤其是实时的处理办法,需要同仁们一起努力实现。
真实的路况是非常复杂的,传统的计算机视觉是无法应对的,由于刚才讲了基于深度协定的技术在一些性能上超过人类的水平,目前深度学习也开始在自动驾驶领域得到了广泛了应用。这一页可以看出人工智能已经应用到自动驾驶的多个模块,包括感知车辆周围的环境、前方后方的车辆、车道线、路牌的信息,人工智能的驾驶模块、高精密地图、地图绘制的模块。我展示两个例子,左侧可以看到可行驶区域,利于人工智能方法可以判断车辆前方的行驶区域。右侧是3D目标检测,3D可以识别出运行的大小、轨迹等,这样可以做更好的预测。
接下来讲一讲英伟达的自动驾驶解决方案,我们先看一下我们在自动驾驶中遇到的一些挑战。相对于高级辅助驾驶,我们可以看到我们认为在L3自动驾驶系统当中,至少有五倍以上的数据量和计算量,同时又更多的模块加入L3的自动驾驶当中。这个有一些和前面的内容相同,我会快过一下。比如说有一个基于深度学习用做目标识别监测,基于高精地图做车辆以及周边环境的定位。获取到以上所有信息之后,我们的方案是把它整合成模块,归下一步动态模块和决策模块,通过算法决定汽车下一步行为。
真正实现是在底层控制模块,规划模块给出算法之后,底盘模块控制刹车、油门、方向盘转向实现最终的汽车自动驾驶行为。自动驾驶技术不是一蹴而就的,所以说OTA功能也是很重要的,自动驾驶牵扯到人命,所以每一次软件更新都是符合车规级别的。我们在L4级别的驾驶当中会应对更多的挑战,可能有50倍的计算量提升,L4级别我们要实现城市路况下的自动驾驶,这一块可以达到人类司机的水平,更多的安全机制也会加入其中。
针对L4的话,英伟达发布第一款人工智能芯片,他的处理能力是好几台服务器的处理能力,这款人工智能超级芯片处理能力是非常强悍的。更高级别的自动驾驶中,相对于L4会带来两倍计算量的提升,这时候不仅有高度驾驶核心模块,更多、更友好的人机交互模式也却加入其中,比如说司机的面部识别、唇部识别、语音识别等。针对刚才讲的L3到L5计算量、安全以及面临复杂的挑战,英伟达推出了整套解决方案,包括硬件解决方案和软件解决方案。
针对我们的硬件解决方案其实涵盖了高级辅助驾驶、L3、L4、L5都涵盖了,硬件解决方案之上同时也完善推出整套软件协议站,从底层的操作系统到中间的SDK到上层应用,都可以实现开发者在我们的硬件平台软件平台上开发自己的算法。首先看一下我们的车载硬件,PX2是一个家族,针对L2、L3级别的自动驾驶我们推出了AutoCruise,L3的自动驾驶我们推出了AutoChauffeur,我们的硬件平台完全符合车规的,我们集成了来自英飞凌公司的芯片,这个芯片达到了SOD级别的车规安全级别,保证自动驾驶系统不会出问题。
首先说明我们的AutoCruise是一个开发的版本,量产车型的话是第三个FullAutonomy,这个芯片只有三十瓦的功耗。在我们的硬件平台之上,我们发布了一整套软件协议站,首先我们可以看到在PX2上底层的一个叫DriveWorks的SDK,它有感知预测模块、决策规划模块等等,同时有一些现成的东西可以让开发者学习。在我们的DriveWorks之上我们开发了一系列神经网络功能,包括目标识别、前方可行驶区域监测、车道线监测、端到端的监测都实现了。
同时我们提出了一个叫MapWorks的SDK,重点讲一下DriveWorks这一块,目前针对开发者我们推出的是基于16.04的实时操作,量产的时候会采用OS的操作系统,我们操作系统之上英伟达提供了加速库、神经网络加速器等一系列软件供开发者快速开发完善他们的算法以及应用。自动驾驶它是事管人命的东西,我们的软件也有安全之外,我们软件也有安全。人工智能这种技术在我们SDK只是其中一部分,我们以前使用各种传统的计算机视觉,包括还有AES的系统,我们都融入到了SDK当中,开发者既可以使用我们的人工智能的算法也可以使用计算机算法去开发应用。
我罗列处四个神经网络,当然我们有更多的神经网络,只是没有展示。DriveNet用于识别车辆目标,LaneNet识别车道线。在我们平台上实现深度神经网络的实验?英伟达实现了全套的深度学习,可以在我们的PX1以及GPU上做离线的探索,基于SDK做实时的处理,这一块在我们的PX2上,不要认为把PX2传到云端服务器上。这是我们整套从线下训练到推理整个流程,我们提供了可视化的训练工具DIGITS,开发者可以很方便的用我们的工具去训练他的网络,就可以训练出想要的神经网络,并且训练过程是可以监控的,界面是非常友好的。
训练好的神经网络因为网络规模比较大,所以直接在PX2平台上,并没有充分发挥PX2平台的计算威力,我们用训练好的神经网络用TensorRT优化引擎进行优化,目前进行单精度复点、高精度复点计算,这样按可以得到数倍的性能提升,这是从训练到用TensorRT优化部署的流程。英伟达把安全视为第一,在人工智能技术之上,我们也集成了多种多样传统计算机视觉的算法,并且我们针对这些算法在GPU平台上做的优化、加速,相对于CPU上同样计算机视觉算法在GPU上有很好速度的提升。
这就是我们的一些优化的软件库,大家可以在主办方发的文集里看到这些。今天我的演讲就到此结束。
问1:你好,我想问一下这些神经网络的芯片,目前有没有落实在量产的计划?据我所知PX2是特斯拉在用,其他主机厂有用它做量产车的吗?
程亚冰:目前跟很多的汽车厂商都有合作,我们PX平台是开放性的平台,开发者可以用我们的DrivePX可以进行低层的开发,对于量产车型的话,他们会自己打板做量产(车)。还是我们的芯片,TL-one厂商会打板的。
主持人:感谢程亚冰的精彩演讲。英伟达应该算IT企业、互联网企业、科技公司,他们做的一开始就是从L3级或L4级的自动驾驶开发,所以说作为产生企业而且走的路线跟他们有所不同,像传统的汽车是从辅助驾驶一步步往自动驾驶开发,所以走的是比较稳健的路径。