汽車要實現(xiàn)真正的無人駕駛,它必須能夠感知和識別周圍的物體,并且要知道自己的確切位置。這兩方面都是無人駕駛技術的核心。英國劍橋大學的一個團隊利用圖像識別和深度學習技術在這兩個方面取得了一定的突破。
他們針對這兩個方面分別研發(fā)了SegNet系統(tǒng)和PoseNet系統(tǒng)。盡管它們目前還不能控制無人駕駛汽車,但是它們能讓機器“看見”,精確定位和識別所看之物,這種能力是開發(fā)自動駕駛汽車和機器人的關鍵因素。在無人駕駛汽車對周邊物體的感知方面,傳統(tǒng)的思路是使用雷達傳感器,或雷達與LIDAR(一種遙感技術)相結合的設備,但是這些設備價格非常高,所有設備加起來甚至比整輛車還貴。這對于無人駕駛技術的快速發(fā)展非常不利。
劍橋大學研發(fā)團隊的SegNet系統(tǒng)避開了這些昂貴的設備,利用傳統(tǒng)的相機來實現(xiàn)對周圍物體的識別。它能拍下街景照片,實時將照片中的物體分成12個類別,例如路面、路標、行人、建筑物和騎自行車的人等。它能應對不同的光照和陰影條件,以及夜間環(huán)境,標記像素的準確度達到90%以上。
研究人員運用了深度學習的技術來訓練SegNet系統(tǒng),希望它能在更復雜的環(huán)境及氣候條件下能識別出物體。劍橋大學的一組本科生手工標記了5000張圖片中的所有像素,研究人員利用這5000張圖片訓練了SegNet,再進行測試,效果很不錯。
SegNet訓練的數(shù)據(jù)大多是高速公路或城市環(huán)境,而對鄉(xiāng)村、雪天和沙漠還缺乏足夠的訓練——不過它在測試中對這些環(huán)境的成績也不錯。
這個系統(tǒng)目前還不能直接用于無人駕駛汽車或卡車,但是它可以用于警示系統(tǒng),與目前一些轎車上所使用的防撞技術相類似。
對于機器學習來說,數(shù)據(jù)庫是比較關鍵的,利用越多的數(shù)據(jù)對其進行訓練,其精確度就會更高。
PoseNet系統(tǒng)和SegNet系統(tǒng)相似,都需要對圖像進行識別。PoseNet系統(tǒng)是一個可以根據(jù)拍攝的照片進行精確定位的系統(tǒng),該系統(tǒng)通過一張224x224RGB的圖像識別出用戶的位置和方向。
這個系統(tǒng)定位的精確度可以達到:室外環(huán)境下,精確度為2m和3°;室內環(huán)境下,精確度為0.5m和5°。相較于GPS定位,這個精確度要高出許多,并且PoseNet系統(tǒng)克服了GPS的弱點:在沒有信號的地方,例如室內、隧道或GPS信號不好的城市,GPS無法定位。這些對于PoseNet都不是問題。與SegNet系統(tǒng)一樣,PoseNet系統(tǒng)也需要深度訓練,以及強大的數(shù)據(jù)庫支持。PoseNet團隊成員Kendall說:“近年來,人工智能和機器人的發(fā)展非常迅速。而我們團隊最酷的地方就在于開發(fā)了一個使用深度學習的技術來識別你的位置和周圍的物品——這是深度學習第一次被用來做這樣的事。”
更多資訊請關注汽車制造頻道