除此之外,视觉识别算法通常需要运行一段时间得出结果,耗时长的需要数百毫秒[2]。面对静止物体,识别时间可能会进一步延长至2-4秒多。在80km/h车速下,车辆在此时间可开出44-88米,系统容错率被进一步降低[3]。 某种程度上,现有辅助驾驶大多数时候都在依靠单目摄像头加传统毫米波雷达两个“二维生物”认识世界——摄像头看不到深度,毫米波雷达测不到高度。但问题在于,现实是复杂的三维,辅助驾驶需要人类这个智慧的三维生物来兜底。
遗憾的是,常常有过于乐观的驾驶员试图强行让辅助驾驶系统完成“升维打击”,将其作为无人驾驶系统使用。 02 软硬升级,就万事大吉? 过去两三年,车企用数十至数百T大算力芯片、三十乃至四十个传感器的配置刺激着用户的神经。 但很少有用户意识到,车辆算力、传感器数量翻倍并不代表辅助驾驶能力翻倍,一方面,这是因为算力是行驶安全的必要非充分条件,另一方面是因为在特定场景下,真正派得上用场的传感器往往只是少数。 在2021年蔚来ES8的碰撞事故中,车辆搭载了24枚传感器,包括一个三目摄像头,4个环视摄像头,5个毫米波雷达以及12个超声波雷达。尽管配置武装到牙齿,但在高速行驶时,能对前方有效探测的,只有三目摄像头与一枚前向毫米波雷达。 理论上,多目摄像头能够通过视差形成立体视觉,获得三维感知能力,但由于算力要求、可靠性、感知距离等限制,蔚来ES8的三目摄像头并没有采用立体视觉算法,实质是三个单目(类似于手机的长焦、中焦、广角)的叠加。 本质上,这和主流辅助驾驶硬件并无代差。 因此,特斯拉和新势力们今年新产品的重点发力方向,并非单纯堆叠传感器数量,而是提升传感器质量、完善传感器融合、升级软件算法,让智能汽车能够“活在三维空间”,以辅助驾驶的形态锤炼自动驾驶的能力。 特斯拉选择纯视觉路线,重构算法框架,使用AI加持的摄像头来测距,利用深度学习算法将多枚高清摄像头采集的二维图像转化为鸟瞰三维图。 但这一路径仍依赖大量数据训练,特斯拉向小部分车主先推送的测试版FSD(Full Self-Driving,特斯拉称完全自动驾驶系统,但被美监管机构认定为辅助驾驶),其驾驶水平与人类差距仍然明显,不认路、撞边柱的情况并不罕见。
特斯拉FSD勇撞边柱,老师傅救车不及 相较于剑走偏锋的特斯拉,其他企业倾向于采用摄像头、毫米波雷达、激光雷达多传感器搭配的路线。 其中,高清摄像头因有助于提升识别能力,已普遍配置在国内L2级辅助驾驶系统上。 而在毫米波雷达领域,为应对传统毫米波雷达信息质量不高的问题,博世、大陆、华为、傲酷等公司研发了具备三维感知能力的4D毫米波雷达。不过该技术成熟度不高,目前尚未量产,此外其分辨率相较摄像头与激光雷达处于劣势。 在此背景下,激光雷达成为今年热度最高的智能驾驶传感器。 激光雷达通过发射脉冲激光、检测反射信号来测量与物体之间的距离,建立周围环境的三维模型。高线束的激光雷达既有探测距离远、测距准的优势,也有较高角分辨率。这些特点让激光雷达很难对横亘在路中的大体积静止物体视而不见。 在蔚小理的第二代平台车型和长安阿维塔、上汽智己等高端车型上,均配备了激光雷达,作为升级辅助驾驶的重要手段。
蔚来ET7激光雷达感知效果 |