無人駕駛一般包括五個等級,但是不管哪個等級都會包含環(huán)境感知、規(guī)劃決策和執(zhí)行控制等三個方面,其中環(huán)境感知方式主要有視覺識別、毫米波雷達(dá)感知和激光雷達(dá)感知。
今年分別發(fā)生在美國和中國的兩起特斯拉自動駕駛狀態(tài)下的車禍致死事件,本質(zhì)上就是因為視覺識別技術(shù)的缺陷導(dǎo)致。具體分析如下:
美國的車禍中,由于特斯拉車上的毫米波雷達(dá)裝位置較低,無法檢測卡車高的車廂,而攝像頭當(dāng)時應(yīng)該已經(jīng)能檢測到卡車了。不過車輛的行駛過程中,兩個探測設(shè)備在最后融合起來的時候可能出現(xiàn)了問題,未能識別卡車所處位置,最終導(dǎo)致車禍發(fā)生。
國內(nèi)的車禍中,特斯拉在跟車過程中,前車突然變道,前方工程車輛速度較慢,與特斯拉之間距離迅速縮短,毫米波雷達(dá)無法掃描到近距離的側(cè)向車。加之?dāng)z像頭當(dāng)時僅收錄了部分工程車車體,進(jìn)而視覺識別無法及時反應(yīng),最終導(dǎo)致車毀人亡。
上述兩起事故,雖然只是所有有關(guān)特斯拉自動駕駛車禍中最典型的兩起,但卻足以說明在視覺識別技術(shù)尚未完善的情況下,使用自動駕駛模式是非常危險的。同樣,視覺識別技術(shù)對于自動駕駛、無人駕駛技術(shù)的重要性也不言而喻。
目標(biāo)由靜至動的轉(zhuǎn)變,是汽車領(lǐng)域的視覺識別最大挑戰(zhàn)之一
傳統(tǒng)的視覺識別常見的應(yīng)用場景有文字轉(zhuǎn)錄、人臉識別、指紋識別等等,不過這些視覺識別技術(shù)都有一個共同的特點,都是靜止?fàn)顟B(tài)下的識別。而在汽車領(lǐng)域,視覺識別在識別內(nèi)容和要求兩個方面就與傳統(tǒng)視覺識別有所不同。
識別內(nèi)容方面,汽車領(lǐng)域的視覺識別最大難點在于,攝像頭和識別目標(biāo)兩者都是相對運動的。比方說需要識別的機(jī)動車、非機(jī)動車、人,這些物體是參與交通的一部分且是處于主動運動狀態(tài)。而障礙物,以及交通牌、紅綠燈等交通標(biāo)識則是相對運動狀態(tài)。
而識別要求方面,則是追求低成本的同時還強(qiáng)調(diào)性能。一個足夠強(qiáng)大的視覺識別系統(tǒng),其實是可以替代激光雷達(dá)的作用,從而降低自動駕駛成本。但是由于技術(shù)特性的不同,也會帶來一定的可靠性問題。對于汽車而言,即使出現(xiàn)短暫性的問題都可能會嚴(yán)重威脅人身財產(chǎn)安全,比方說特斯拉的那兩起事故。
正是由于汽車領(lǐng)域的視覺識別既要求成本又要求性能,而識別內(nèi)容又更加繁復(fù),因此視覺識別在汽車領(lǐng)域的應(yīng)用難點尤其突出。
深度學(xué)習(xí)可以算是近些年來人工智能領(lǐng)域的最大突破之一,如果在算法和樣本量足夠的情況下,其準(zhǔn)確率可以達(dá)到99.9%以上,而傳統(tǒng)的視覺算法檢測精度的極限在93%左右。這樣一來,將深度學(xué)習(xí)融入視覺識別系統(tǒng),可以使得無人駕駛技術(shù)更加完善。
無人駕駛的環(huán)境感知部分包括車道線、車輛、行人、交通標(biāo)志等目標(biāo)的自動檢測,這就要用機(jī)器學(xué)習(xí)的方法去完成自動識別工作,而深度學(xué)習(xí)是目前為止最好的機(jī)器學(xué)習(xí)方法。深度學(xué)習(xí)利用其深層的神經(jīng)網(wǎng)絡(luò),通過一定的算法能訓(xùn)練出一個識別率非常高的分類器,從而能夠使環(huán)境感知部分高精度的完成,為駕駛決策模塊提供正確的環(huán)境信息,保證無人駕駛正常的完成。
所以說,相比于傳統(tǒng)模式識別算法,深度學(xué)習(xí)算法所具備的精確度更高、環(huán)境適應(yīng)性更強(qiáng)等特點,讓無人駕駛技術(shù)中的視覺識別更上一層樓,也讓整個無人駕駛技術(shù)更完善。