当全球各大车企和芯片企业都在人工智能和自动驾驶上展开激烈角逐时,中国企业已经展现出了傲人的战绩。
在2017年全球最前沿科技展示大会电子消费展上(CES),专注辅助驾驶(ADAS)和自动驾驶研发的纵目科技与高通联合展示了,首个基于骁龙820A平台并运用深度学习的最新ADAS产品原型,赢得了全球业界大佬的广泛关注。
这台搭载ADAS原型系统的装备,运用了运行在骁龙820A神经网络处理引擎(SNPE)上的统一神经网络算法。在纵目科技和清华大学联合自主开发完成,能 够实现高速公路和市区道路场景下的ADAS功能,可对车辆、行人、自行车等多类物体识别,以及对像素级别可行驶区域的实时语义分割。
毫无疑问,深度学习的尝试已经在服务器上尝试了多年,但挑战在于,如何把复杂的算法放到线下的处理器上,毫无疑问,纵目此次推出的深度学习ADAS演示是高通芯片上的首个案例。
正是由于纵目的展示揭示了高通芯片在自动驾驶领域能够实现的突破,纵目的展示台也成为了CES最热门的展台之一。
在高通的展台一侧,受限于室内展示无法提供真实道路环境,纵目采取了摄像头拍摄显示器播放的行车路况视频的方法,来模拟真实情况中摄像头从前挡玻璃处观察前方路况。
曾任英国CSR汽车事业群全球工程总监的唐锐创建纵目科技的初衷即为推进辅助驾驶和自动驾驶。纵目科技 在创立初期主要提供的是环视ADAS软件算法。2013年至2015年开始有前装产品,2016年开始提供软件、芯片、模组、子系统等产品,主攻乘用车前 装,现在合作的车企包括吉利、奇瑞、凯翼、江淮、上汽大通、北汽银翔等。毫无疑问,环视ADAS产品是纵目向外拓展的根基。
目前自动驾驶是全球汽车行业正在瞄准的一个领域,而对于一个复杂环境的理解,是所有自动驾驶的基石,我们先要通过传感系统来判断出来周边环境,之后才是判断出如何进行驾驶。
对于复杂环境的理解,此前纵目主要都是基于传统计算机视觉算法打造的前装产品。而现在我们与高通展出的ADAS原型系统,是纵目第一款运行深度神经网络算法 的ADAS产品。这套运行在骁龙820A神经网络处理引擎(SNPE)上的统一神经网络算法,由纵目科技和清华大学联合自主开发完成,能够实现高速公路和 市区道路场景下的ADAS功能,可对车辆、行人、自行车等多类物体识别,以及像素级别可行驶区域的实时语义分割。
高通提供了神经网 络处理引擎(SNPE)。这款深度学习开发套件SDK今年五月初发布,可运行于搭载了高通Zeroth机器智能平台的820芯片处理器。开发者可以在 SNPE上搭建自己的深度学习网络模型,纵目这款原型产品使用的网络模型是联合清华大学3D Image实验室共同定义的,清华大学提供了初始的网络模型 原型,后期优化和算法的工程化、细节的调试和实现是由纵目主导完成的。
在现场来看,这个前置的摄像头已经通过深度学习算法,经过了一定的训练,因此可以看到,他可以把大部分的可行驶区域计算出来。
英伟达确实是推动深度学习和自动驾驶的芯片先驱,此前我们看到学术界曾经在英伟达的芯片上做过这样的展示,但今天我们首次在高通这一能耗非常低的嵌入式平台上完整地运用深度学习实现了复杂的场景感知计算。
不同的芯片将会有不同的优势,但对于未来的产业来讲,如何能够将功能真正落地并结合在汽车量产之中,是是否能真正推进自动驾驶的最重要因素。我们认为高通存在一些产业化方面的优势。
首先,高通骁龙820A是从手机平台进行车规化的,它的功耗优化做得相当好;其次,高通背后是基于手机等移动终端的大规模市场,芯片上的IP研发费用在最大 的手机市场上得到了摊销,具有非常明显的成本优势;最后,未来只是单纯强调计算能力或具备深度学习能力的芯片不太可能成为汽车行业大规模应用的产品。类似 高通820A这样,在一块电路板上集成了5G通信模块、神经网络处理引擎、GPS、DSRC、无线WiFi等诸多功能的芯片,是适应未来智能互联/自动驾 驶汽车发展趋势的产品。
这两三年来自动驾驶的热潮对纵目来说是很大的利好。但我们仍然认为,从目前我们正在做的辅助驾驶到最终的自动驾驶,仍然有一定距离。
目前我们和清华、高通的合作已经证明深度学习的重要性,而这是未来自动驾驶最需要的内容之一,我们会依据产业发展情况不断增加新的算法。纵目的ADAS产品将从低速场景慢慢过渡到高速场景,最终目标是实现有条件的自动驾驶甚至是无人驾驶。
目前自动驾驶的平台开发欠缺的东西还很多,做好真实场景的再现是第一步,驾驶策略的开发、系统控制、如何做好定位以及高精度地图等等都是亟待解决的问题。
我们希望能利用高通820A平台较强的扩展性打造一系列产品,应用场景囊括了从低速的2D/3D环视泊车辅助、自动泊车、自主泊车、高速的AEB/ACC /LDW驾驶辅助,以及属于更高阶段的自动驾驶等范畴。而随着产品功能的变化,会陆续增加摄像头的数量,接入其他功能的传感器。未来再逐步将这些原型产品 推向量产。