外媒:礙于目前的AI瓶頸,全自動(dòng)駕駛汽車(chē)可能要花比預(yù)期中更長(zhǎng)的時(shí)間才會(huì)面市

時(shí)間:2018-07-10

來(lái)源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語(yǔ):國(guó)外媒體近日刊文稱,包括特斯拉、谷歌和Uber在內(nèi)的多家公司都在開(kāi)發(fā)全自動(dòng)駕駛技術(shù)。然而質(zhì)疑者認(rèn)為,由于現(xiàn)有人工智能技術(shù)的瓶頸,全自動(dòng)駕駛汽車(chē)可能要花比預(yù)期中更長(zhǎng)的時(shí)間才會(huì)面市。

【外媒:礙于目前的AI瓶頸,全自動(dòng)駕駛汽車(chē)可能要花比預(yù)期中更長(zhǎng)的時(shí)間才會(huì)面市】國(guó)外媒體近日刊文稱,包括特斯拉、谷歌和Uber在內(nèi)的多家公司都在開(kāi)發(fā)全自動(dòng)駕駛技術(shù)。然而質(zhì)疑者認(rèn)為,由于現(xiàn)有人工智能技術(shù)的瓶頸,全自動(dòng)駕駛汽車(chē)可能要花比預(yù)期中更長(zhǎng)的時(shí)間才會(huì)面市。

以下為文章主要內(nèi)容:

如果你相信公司CEO們的說(shuō)法,那么也許會(huì)認(rèn)為,一輛可完全自動(dòng)駕駛汽車(chē)距離面市可能只有幾個(gè)月時(shí)間。

2015年,特斯拉CEO埃隆·馬斯克(ElonMusk)預(yù)測(cè),到2018年,特斯拉將推出全自動(dòng)駕駛汽車(chē)。谷歌也是如此。Delphi和MobileEye的Level4自動(dòng)駕駛系統(tǒng)目前計(jì)劃在2019年推出。同年,Nutonomy將在新加坡街道上部署數(shù)千輛無(wú)人駕駛出租車(chē)。通用汽車(chē)將于2019年投產(chǎn)一款全自動(dòng)駕駛汽車(chē),這款汽車(chē)沒(méi)有方向盤(pán),也無(wú)法由人工干預(yù)。在這些預(yù)測(cè)背后,企業(yè)投入了真金白銀,并基于這樣的假設(shè):軟件發(fā)展能趕得上表面上的熱鬧。

簡(jiǎn)單來(lái)看,我們目前距離全自動(dòng)駕駛已非常接近。Waymo已經(jīng)在亞利桑那州公共道路上測(cè)試此類汽車(chē)。特斯拉和多家其他公司已銷(xiāo)售自動(dòng)駕駛系統(tǒng)的基礎(chǔ)版本,這樣的系統(tǒng)在發(fā)生意外情況時(shí)仍然需要司機(jī)來(lái)干預(yù)。在這個(gè)過(guò)程中,發(fā)生了一些事故,有人喪生。但只要系統(tǒng)持續(xù)改進(jìn),邏輯不斷優(yōu)化,我們就能做到完全不需要人工介入。

然而,全自動(dòng)駕駛汽車(chē)可能比我們想象中更遠(yuǎn)。人工智能專家越來(lái)越擔(dān)心,自動(dòng)駕駛系統(tǒng)如果想要可靠地避免事故,那么可能需要幾年到幾十年的時(shí)間。自我訓(xùn)練的系統(tǒng)需要面對(duì)現(xiàn)實(shí)世界的混亂,而紐約大學(xué)加里·馬庫(kù)斯(GaryMarcus)這樣的專家正準(zhǔn)備調(diào)整原先的預(yù)期。有些時(shí)候,這也被稱作“人工智能的冬天”。技術(shù)發(fā)展的推遲可能會(huì)給指望自動(dòng)駕駛技術(shù)的公司帶來(lái)災(zāi)難性后果,讓整整一代產(chǎn)品無(wú)法實(shí)現(xiàn)完全的自動(dòng)化。

我們可以很容易地理解,為什么汽車(chē)廠商對(duì)自動(dòng)駕駛持樂(lè)觀態(tài)度。過(guò)去10年中,基于機(jī)器學(xué)習(xí)算法來(lái)處理大數(shù)據(jù)集的深度學(xué)習(xí)技術(shù)推動(dòng)了人工智能和科技行業(yè)的巨大發(fā)展。深度學(xué)習(xí)被用于谷歌搜索、Facebook消息流、會(huì)話式的語(yǔ)音轉(zhuǎn)文本算法,以及強(qiáng)大的圍棋系統(tǒng)。在互聯(lián)網(wǎng)行業(yè)以外,我們利用深度學(xué)習(xí)技術(shù)來(lái)探測(cè)地震、預(yù)測(cè)心臟病,以及標(biāo)記出攝像機(jī)鏡頭前的可疑行為。如果沒(méi)有深度學(xué)習(xí),這一切都是不可能的。

然而,深度學(xué)習(xí)需要大量訓(xùn)練數(shù)據(jù)才能正確工作,需要包含算法可能遇到的幾乎所有場(chǎng)景。例如,類似谷歌圖片的系統(tǒng)只要獲得足夠的訓(xùn)練數(shù)據(jù),告訴它每種動(dòng)物長(zhǎng)什么樣,那么就能很好地去識(shí)別動(dòng)物。馬庫(kù)斯將此類任務(wù)稱作“插值”,即對(duì)所有已標(biāo)記的圖片進(jìn)行分析,判斷新圖片是否屬于某個(gè)群組。

在數(shù)據(jù)來(lái)源和結(jié)構(gòu)方面,工程師可以很有創(chuàng)新性。然而,算法有自身的極限。除非預(yù)先向算法提供大量豹子的圖片,否則算法無(wú)法識(shí)別出什么是豹子,即使這個(gè)算法此前已經(jīng)能識(shí)別家貓和美洲虎,并且知道豹子的長(zhǎng)相介于兩者之間。這個(gè)過(guò)程被稱作“泛化”,需要完全不同的能力集。

很長(zhǎng)一段時(shí)間以來(lái),研究者認(rèn)為,可以使用正確的算法來(lái)優(yōu)化泛化能力,但最近的研究表明,傳統(tǒng)的深度學(xué)習(xí)在泛化能力方面甚至比我們想象中還要糟糕。研究發(fā)現(xiàn),傳統(tǒng)的深度學(xué)習(xí)系統(tǒng)很難在一段視頻的不同幀之間進(jìn)行泛化,例如由于背景的細(xì)微變化將同一只北極熊貼上了狒狒、貓鼬和黃鼠狼的標(biāo)簽。由于每個(gè)分類都基于數(shù)百個(gè)因素的共同作用,因此圖片的微小改變就會(huì)完全改變系統(tǒng)判斷。其他研究員已經(jīng)在對(duì)抗數(shù)據(jù)集中利用過(guò)這點(diǎn)。

馬庫(kù)斯指出,聊天機(jī)器人狂熱是關(guān)于泛化問(wèn)題的最新例子。他表示:“2015年時(shí),我們得到了關(guān)于聊天機(jī)器人的承諾。然而,這些聊天機(jī)器人表現(xiàn)得并不好,這并不僅僅是收集數(shù)據(jù)的問(wèn)題。當(dāng)你在網(wǎng)上和他人交談時(shí),你不希望他們總是重復(fù)之前的話。你希望他們能對(duì)你的話做出回應(yīng),有更多樣的對(duì)話技巧,給你不同于他人的回應(yīng)。深度學(xué)習(xí)技術(shù)并不能開(kāi)發(fā)出這樣的聊天機(jī)器人。一旦最初的狂熱退去,企業(yè)就會(huì)對(duì)聊天機(jī)器人項(xiàng)目失去信心。目前,很少還有公司仍在積極開(kāi)發(fā)聊天機(jī)器人?!?/p>

這就讓特斯拉和其他自動(dòng)駕駛公司面臨一個(gè)可怕的問(wèn)題:自動(dòng)駕駛汽車(chē)能否與圖像搜索、語(yǔ)音識(shí)別和人工智能等其他成功應(yīng)用類似,持續(xù)得到優(yōu)化?它們是否會(huì)像聊天機(jī)器人一樣,遇到泛化問(wèn)題?自動(dòng)駕駛是插值問(wèn)題還是泛化問(wèn)題?駕駛過(guò)程中的不可預(yù)見(jiàn)性究竟有多少?

現(xiàn)在回答這些問(wèn)題還為時(shí)過(guò)早。馬庫(kù)斯說(shuō):“無(wú)人駕駛汽車(chē)就像個(gè)科學(xué)實(shí)驗(yàn),我們不知道答案?!蔽覀儚膩?lái)沒(méi)有實(shí)現(xiàn)過(guò)這種水平的自動(dòng)駕駛,因此不知道這是種什么樣的任務(wù)。就識(shí)別熟悉的對(duì)象和遵循規(guī)則而言,現(xiàn)有的技術(shù)能很好地完成。然而馬庫(kù)斯擔(dān)心,在易發(fā)生事故的情況下很好地完成駕駛,這要比汽車(chē)行業(yè)想象中復(fù)雜得多?!瓣P(guān)于如何處理意料之外的新東西,深度學(xué)習(xí)做得并不好。”

我們獲得的實(shí)驗(yàn)數(shù)據(jù)來(lái)自公開(kāi)的事故報(bào)告,所有這些報(bào)告都提供了一些不同尋常的細(xì)節(jié)。在2016年的車(chē)禍中,一輛特斯拉ModelS全速撞向一輛白色半掛卡車(chē)的尾部。當(dāng)時(shí),半掛卡車(chē)的高度和明亮的陽(yáng)光令自動(dòng)駕駛系統(tǒng)發(fā)生誤判。今年3月,Uber的無(wú)人駕駛汽車(chē)撞到一名推著自行車(chē)的女性,當(dāng)時(shí)后者突然橫穿馬路。根據(jù)美國(guó)交通運(yùn)輸安全委員會(huì)(NTSB)的報(bào)告,Uber的軟件最開(kāi)始將這名女性錯(cuò)誤地識(shí)別為未知物體,隨后是一輛汽車(chē),最終是一輛自行車(chē)。在加州的另一場(chǎng)事故中,一輛ModelX朝著障礙物行駛,在碰撞前還在加速,系統(tǒng)這樣做的原因目前仍不清楚。

每場(chǎng)事故看起來(lái)都像是個(gè)邊緣案例,即工程師無(wú)法預(yù)料的情況。然而,幾乎每場(chǎng)事故都涉及了不可預(yù)見(jiàn)的場(chǎng)景。如果缺乏泛化能力,無(wú)人駕駛汽車(chē)將不得不一個(gè)又一個(gè)地學(xué)習(xí)新情況,而最終結(jié)果就是一連串的意外事故,且安全性無(wú)法隨時(shí)間推移得到改善。如果懷疑這個(gè)結(jié)論,那么可以看看人工干預(yù)自動(dòng)駕駛系統(tǒng)的報(bào)告。這樣的場(chǎng)景已經(jīng)發(fā)生,技術(shù)進(jìn)步已經(jīng)進(jìn)入平臺(tái)期。

Drive.AI創(chuàng)始人、百度前高管、行業(yè)最知名的推動(dòng)者之一吳恩達(dá)認(rèn)為,問(wèn)題并不在于構(gòu)建完美的駕駛系統(tǒng),而在于告知路人如何去判斷無(wú)人駕駛汽車(chē)的行為。換句話說(shuō),我們可以嘗試讓道路交通環(huán)境對(duì)汽車(chē)來(lái)說(shuō)更安全,而不是從另一個(gè)方向入手。關(guān)于不可預(yù)料的場(chǎng)景,我問(wèn)他,他是否認(rèn)為,當(dāng)前的系統(tǒng)能處理拿著手杖的行人,即使系統(tǒng)從未見(jiàn)過(guò)這樣的對(duì)象。他回答:“我認(rèn)為,許多自動(dòng)駕駛團(tuán)隊(duì)都能處理人行橫道上拿著手杖的行人,但在高速公路中間這樣使用手杖會(huì)非常危險(xiǎn)。”

他認(rèn)為:“我們不應(yīng)該用人工智能去解決手杖的問(wèn)題,而是應(yīng)該與政府合作,要求人們遵守交通規(guī)則,有更謹(jǐn)慎的考慮。安全問(wèn)題并不僅僅依靠人工智能技術(shù)的質(zhì)量?!?/p>

深度學(xué)習(xí)并不是唯一的人工智能技術(shù),企業(yè)已開(kāi)始探索替代方案。盡管技術(shù)在業(yè)內(nèi)受到密切保護(hù)(看看Waymo近期對(duì)Uber的訴訟就可以知道),但許多公司已經(jīng)轉(zhuǎn)向了基于規(guī)則的人工智能。這是種更古老的技術(shù),工程師會(huì)將特定行為和邏輯寫(xiě)入自治的系統(tǒng)中。這種系統(tǒng)無(wú)法像深度學(xué)習(xí)一樣,通過(guò)分析數(shù)據(jù)來(lái)自主確定行為,但卻能避免深度學(xué)習(xí)的某些局限性。然而,由于基本的認(rèn)知任務(wù)仍然受到深度學(xué)習(xí)技術(shù)的深刻影響,因此很難說(shuō)工程師們?cè)诟綦x可能的錯(cuò)誤時(shí)有多成功。

Lyft董事會(huì)成員、風(fēng)險(xiǎn)投資人AnnMiura-Ko認(rèn)為,部分問(wèn)題在于對(duì)自動(dòng)駕駛汽車(chē)的期望過(guò)高,因此將所有非全自動(dòng)駕駛的東西都?xì)w結(jié)為失敗。他表示:“期望從0直接走到Level5本身就是不合理的,并不是技術(shù)上的失敗。我認(rèn)為,所有這些微小的改進(jìn)都是在通往全自動(dòng)駕駛道路上取得的重要成就?!?/p>

不過(guò)仍不清楚,自動(dòng)駕駛汽車(chē)目前的困境還會(huì)持續(xù)多久。類似特斯拉Autopilot的半自動(dòng)駕駛產(chǎn)品已足夠智能,能處理大部分情況,但如果發(fā)生意料之外的情況,那么仍需要人工干預(yù)。因此,一旦實(shí)際發(fā)生問(wèn)題,很難知道問(wèn)題的原因是汽車(chē)還是司機(jī)。有些批評(píng)人士認(rèn)為,即使錯(cuò)誤很難完全歸咎于機(jī)器,但與人工駕駛相比,這種兩者相結(jié)合的模式可能更不安全。蘭德公司的一項(xiàng)研究估計(jì),無(wú)人駕駛汽車(chē)需要行駛2.75億英里,且不發(fā)生致命的安全事故,才能證明它們和人工司機(jī)一樣安全。特斯拉Autopilot第一起致人死亡的事故發(fā)生在項(xiàng)目進(jìn)行了1.3億英里時(shí),距離2.75億英里還有很遠(yuǎn)的距離。

不過(guò),由于深度學(xué)習(xí)仍然是汽車(chē)感知對(duì)象、做出回應(yīng)的核心,優(yōu)化事故率可能比看起來(lái)更難。杜克大學(xué)教授瑪麗·卡明斯(MaryCummings)提到了今年早些時(shí)候Uber發(fā)生的致命事故。“感知-決策周期通常相互關(guān)聯(lián),就像這起導(dǎo)致行人死亡的事故一樣。感知環(huán)節(jié)未能做出明確判斷,導(dǎo)致決策環(huán)節(jié)決定不采取任何行動(dòng)。而由于傳感器提供了太多假警報(bào),緊急制動(dòng)也被關(guān)閉?!?/p>

這場(chǎng)事故導(dǎo)致Uber今年夏天暫停了自動(dòng)駕駛項(xiàng)目,這對(duì)于其他計(jì)劃推出自動(dòng)駕駛系統(tǒng)的公司來(lái)說(shuō)不是個(gè)好兆頭。在整個(gè)行業(yè)中,各家公司都在競(jìng)相獲得更多數(shù)據(jù),以解決這個(gè)問(wèn)題。他們認(rèn)為,積累里程數(shù)最多的公司將開(kāi)發(fā)出最強(qiáng)大的系統(tǒng)。然而馬庫(kù)斯認(rèn)為,還有更難以解決的問(wèn)題:“他們只是使用已有的技術(shù),希望技術(shù)能發(fā)揮效果。他們依靠的是大數(shù)據(jù),因?yàn)檫@是他們的支柱,但沒(méi)有證據(jù)表明,這可以幫你達(dá)到我們需要的精確度?!?/p>

中傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來(lái)源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(www.surachana.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來(lái)源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來(lái)源的稿件,均來(lái)自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來(lái)源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問(wèn)題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動(dòng)控制公眾號(hào)獲取更多資訊

關(guān)注直驅(qū)與傳動(dòng)公眾號(hào)獲取更多資訊

關(guān)注中國(guó)傳動(dòng)網(wǎng)公眾號(hào)獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽(yáng)科技有限公司

熱搜詞
  • 運(yùn)動(dòng)控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺(jué)
  • 機(jī)械傳動(dòng)
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0