硬科普:为什么自动驾驶需要5G?看完就懂

虎嗅网 中字

什么叫自动驾驶?

自动驾驶分为6个等级:

Level 0:人工驾驶,无驾驶辅助系统,仅提醒。

Level 1:辅助人工驾驶,可实现单一的车速或转向控制自动化,仍由人工驾驶(如定速巡航、ACC)。

Level 2:部分自动驾驶,可实现车速和转向控制自动化,驾驶员必须始终保持监控(如车道中线保持)。

Level 3:有条件自动驾驶,可解放双手(hands off),驾驶员监控系统并在必要时进行干预。

Level 4:高级自动驾驶,可解放双眼(eyes off),在一些预定义的场景下无需驾驶员介入。

Level 5:全自动驾驶,完全自动化,不需要驾驶员(driverless)。

自动驾驶基本原理

关于自动驾驶的基本原理,需了解三大关键词:传感器、数据融合(Data Fusion)、100%安全性决策。

传感器

自动驾驶需要的传感器系统主要有三种类型:摄像头、雷达和激光雷达。

摄像头

摄像头是自动驾驶必备的传感器,包括前视、后视和360度摄像系统,后视和360度摄像头主要提供360度外部环境呈现,前视摄像头主要用于识别行人、车辆、道路、交通标志等。

雷达(RADAR)

自动驾驶需要多个雷达传感器,其功能是无线探测和测距,主要用于盲点检测、防碰撞、自动泊车、制动辅助、紧急制动和自动距离控制等应用。目前的雷达系统主要基于24GHz和77GHz,相较于24GHz,77GHz在测量距离和速度时具有更高的精度,以及更高的角分辨率,且还具备天线尺寸小、干扰小等优点。

激光雷达(LiDAR)

LiDAR,即Light Detection And Ranging的缩写,它是一种基于激光的系统,除发射器(激光器)外,系统还具备高灵敏度的接收器。LiDAR主要用于测量静止和移动物体的距离,并通过处理提供所检测物体的三维图像。

LiDAR应用于自动驾驶所面临的挑战是,如何克服在雨雪、雾、温度等环境影响下识别较远距离的物体,同时,这玩意成本太高,目前不适合汽车领域的大规模部署。

数据融合(Data Fusion)

数据融合就是将不同传感器(如雷达、摄像头和激光雷达)数据进行智能化合成,实现不同信息源的互补性、冗余性和合作性,从而做出更好、更安全的决策。比如摄像头具有分辨颜色(识别指示牌和路标)的优势,可易受恶劣天气环境和光线的影响,但雷达在测距、穿透雨雾等有优势,两者互补融合可作出更精确、更可靠的评估和判断。

100%安全性决策

一旦出现交通事故,重则导致人身伤亡,因此,自动驾驶对技术安全的要求相当苛刻,需实现接近100%的安全性。

简而言之,自动驾驶就是通过传感器收集全面的环境信息,再对信息融合处理,并作出接近100%安全性决策。

目前多数人所谈的自动驾驶,都是基于汽车本地端的传感器、数据融合来实现决策的。

但是,你有没有想过,这种单凭本地端实现的方式存在一些局限性。

当汽车横穿十字路口时,自动驾驶能预知从左侧高速驶来的大卡车吗?

由于易受雨、雪、雾、强光等环境影响,摄像头能始终准确识别指示牌和红绿灯吗?

再举一个例子。

当自动驾驶在高速路上以130公里/小时行驶时,摄像机/雷达融合无法安全地检测到前方超过120米距离外的停车,这将触发超过5米每平方秒的紧急制动,这是无法接受的。

总之,道路环境异常复杂,雷达、摄像头和激光雷达等本地传感系统受限于视距、环境等因素影响,要实现100%安全性,自动驾驶需要弥补本地传感器所欠缺的感知能力。

简单的理解,本地传感系统让汽车实现了“眼观六路”,但自动驾驶还需要“耳听八方”。

这就需要C-V2X闪亮登场。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存