技術(shù)頻道

娓娓工業(yè)
您現(xiàn)在的位置: 中國(guó)傳動(dòng)網(wǎng) > 技術(shù)頻道 > 技術(shù)百科 > 深度學(xué)習(xí)是否已經(jīng)取代了傳統(tǒng)的計(jì)算機(jī)視覺(jué)?

深度學(xué)習(xí)是否已經(jīng)取代了傳統(tǒng)的計(jì)算機(jī)視覺(jué)?

時(shí)間:2018-04-18 18:46:21來(lái)源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語(yǔ):?本文作者認(rèn)為,深度學(xué)習(xí)只是一種計(jì)算機(jī)視覺(jué)工具,而不是包治百病的良藥,不要因?yàn)榱餍芯鸵晃兜厥褂盟鹘y(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)仍然可以大顯身手,了解它們可以為你省去很多的時(shí)間和煩惱;并且掌握傳統(tǒng)計(jì)算機(jī)視覺(jué)確實(shí)可以讓你在深度學(xué)習(xí)方面做得更好。這是因?yàn)槟憧梢愿玫乩斫馍疃葘W(xué)習(xí)的內(nèi)部狀況,并可執(zhí)行預(yù)處理步驟改善深度學(xué)習(xí)結(jié)果。

本文作者認(rèn)為,深度學(xué)習(xí)只是一種計(jì)算機(jī)視覺(jué)工具,而不是包治百病的良藥,不要因?yàn)榱餍芯鸵晃兜厥褂盟鹘y(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)仍然可以大顯身手,了解它們可以為你省去很多的時(shí)間和煩惱;并且掌握傳統(tǒng)計(jì)算機(jī)視覺(jué)確實(shí)可以讓你在深度學(xué)習(xí)方面做得更好。這是因?yàn)槟憧梢愿玫乩斫馍疃葘W(xué)習(xí)的內(nèi)部狀況,并可執(zhí)行預(yù)處理步驟改善深度學(xué)習(xí)結(jié)果。

本文的靈感同樣來(lái)自論壇中的一個(gè)常見(jiàn)問(wèn)題:

深度學(xué)習(xí)已經(jīng)取代了傳統(tǒng)的計(jì)算機(jī)視覺(jué)嗎?

或是換種說(shuō)法:

既然深度學(xué)習(xí)看起來(lái)如此有效,是否還有必要學(xué)習(xí)傳統(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)?

這個(gè)問(wèn)題很好。深度學(xué)習(xí)確實(shí)給計(jì)算機(jī)視覺(jué)和人工智能領(lǐng)域帶來(lái)了革命性的突破。許多曾經(jīng)看似困難的問(wèn)題,現(xiàn)在機(jī)器可以比解決的比人類還好。圖像分類就是最好的印證。確實(shí),如從前所述,深度學(xué)習(xí)有責(zé)任將計(jì)算機(jī)視覺(jué)納入行業(yè)版圖。

但深度學(xué)習(xí)仍然只是計(jì)算機(jī)視覺(jué)的一個(gè)工具,且顯然不是解決所有問(wèn)題的靈丹妙藥。因此,本文會(huì)對(duì)此進(jìn)行詳細(xì)闡述。也就是說(shuō),我將說(shuō)明傳統(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)為何仍十分有用,值得我們繼續(xù)學(xué)習(xí)并傳授下去。

本文分為以下幾個(gè)部分/論點(diǎn):

深度學(xué)習(xí)需要大數(shù)據(jù)

深度學(xué)習(xí)有時(shí)會(huì)做過(guò)了頭

傳統(tǒng)計(jì)算機(jī)視覺(jué)將會(huì)提升你的深度學(xué)習(xí)水平

進(jìn)入正文之前,我認(rèn)為有必要詳細(xì)解釋一下什么是「?jìng)鹘y(tǒng)計(jì)算機(jī)視覺(jué)」,什么是深度學(xué)習(xí),及其革命性。

背景知識(shí)

在深度學(xué)習(xí)出現(xiàn)以前,如果你有一項(xiàng)諸如圖像分類的工作,你會(huì)進(jìn)行一步叫做「特征提取」的處理。所謂「特征」就是圖像中「有趣的」、描述性的、或是提供信息的小部分。你會(huì)應(yīng)用我在本文中稱之為的「?jìng)鹘y(tǒng)計(jì)算機(jī)視覺(jué)技術(shù)」的組合來(lái)尋找這些特征,包括邊緣檢測(cè)、角點(diǎn)檢測(cè)、對(duì)象檢測(cè)等等。

在使用這些與特征提取和圖像分類相關(guān)的技術(shù)時(shí),會(huì)從一類對(duì)象(例如:椅子、馬等等)的圖像中提取出盡可能多的特征,并將其視為這類對(duì)象的「定義」(稱作「詞袋」)。接下來(lái)你要在其它圖像中搜索這些「定義」。如果在另一個(gè)圖像中存在著詞袋中相當(dāng)一部分的特征,那么這個(gè)圖像就被歸為包含那個(gè)特定對(duì)象(如椅子、馬等等)的分類。

這種圖像分類的特征提取方法的難點(diǎn)在于你必須在每張圖像中選擇尋找哪些特征。隨著你試圖區(qū)分的類別數(shù)目開(kāi)始增長(zhǎng),比如說(shuō)超過(guò)10或20,這就會(huì)變得非常麻煩甚至難以實(shí)現(xiàn)。你要尋找角點(diǎn)?邊緣?還是紋理信息?不同類別的對(duì)象最好要用不同種類型的特征來(lái)描述。如果你選擇使用很多的特征,你就不得不處理海量的參數(shù),而且還需要自己來(lái)微調(diào)。

深度學(xué)習(xí)引入了「端到端學(xué)習(xí)」這一概念,(簡(jiǎn)而言之)讓機(jī)器在每個(gè)特定類別的對(duì)象中學(xué)習(xí)尋找特征,即最具描述性、最突出的特征。換句話說(shuō),讓神經(jīng)網(wǎng)絡(luò)去發(fā)現(xiàn)各種類型圖像中的潛在模式。

因此,借助端到端學(xué)習(xí),你不再需要手動(dòng)決定采用哪種傳統(tǒng)機(jī)器視覺(jué)技術(shù)來(lái)描述特征。機(jī)器為你做好了這一切。《連線》雜志如此寫(xiě)道:

舉例來(lái)說(shuō),如果你想教會(huì)一個(gè)[深度]神經(jīng)網(wǎng)絡(luò)識(shí)別一只貓,你不必告訴它去尋找胡須、耳朵、毛或是眼睛。你只需展示給它成千上萬(wàn)的貓的圖像,它自然會(huì)解決這一問(wèn)題。如果它總是會(huì)將狐貍誤認(rèn)為是貓,你也不用重寫(xiě)代碼。你只需對(duì)它繼續(xù)進(jìn)行訓(xùn)練。

下圖描述了特征提取(使用傳統(tǒng)計(jì)算機(jī)視覺(jué))和端到端學(xué)習(xí)之間的這種區(qū)別:

以上就是背景介紹?,F(xiàn)在接著討論為什么傳統(tǒng)計(jì)算機(jī)視覺(jué)仍然必不可少,而且學(xué)習(xí)它仍大有裨益。

深度學(xué)習(xí)需要大量數(shù)據(jù)

首先,深度學(xué)習(xí)需要數(shù)據(jù),許許多多的數(shù)據(jù)。前文提到過(guò)的著名圖像分類模型的訓(xùn)練都基于龐大的數(shù)據(jù)集。排名前三的訓(xùn)練數(shù)據(jù)集分別是:

ImageNet——150萬(wàn)圖像,1000個(gè)對(duì)象分類/類別;

COCO——250萬(wàn)圖像,91個(gè)對(duì)象分類;

PASCALVOC——50萬(wàn)圖像,20個(gè)對(duì)象分類。

但是一個(gè)訓(xùn)練不良的模型在你的訓(xùn)練數(shù)據(jù)之外很可能表現(xiàn)糟糕,因?yàn)闄C(jī)器并沒(méi)有對(duì)于問(wèn)題的洞察力,也就不能在沒(méi)看到數(shù)據(jù)的情況下進(jìn)行概括歸納。而且對(duì)你來(lái)說(shuō)查看訓(xùn)練模型內(nèi)部并進(jìn)行手動(dòng)調(diào)整又太過(guò)困難,因?yàn)橐粋€(gè)深度學(xué)習(xí)模型內(nèi)部擁有數(shù)以百萬(wàn)計(jì)的參數(shù)——每個(gè)參數(shù)在訓(xùn)練期間都會(huì)被調(diào)整。某種程度上說(shuō),一個(gè)深度學(xué)習(xí)模型就是一個(gè)黑箱。

傳統(tǒng)的計(jì)算機(jī)視覺(jué)完全透明,允許你更好地評(píng)估判斷你的解決方案是否在訓(xùn)練環(huán)境之外依然有效。你對(duì)問(wèn)題的深入見(jiàn)解可以放進(jìn)你的算法之中。并且如果任何地方出現(xiàn)故障,你也可以更輕易地弄清楚什么需要調(diào)整,在哪里調(diào)整。

深度學(xué)習(xí)有時(shí)做過(guò)了頭

這大概是我最喜歡的支持研究傳統(tǒng)計(jì)算機(jī)視覺(jué)技術(shù)的理由。

訓(xùn)練一個(gè)深度神經(jīng)網(wǎng)絡(luò)需要很長(zhǎng)的時(shí)間。你需要專門的硬件(例如高性能GPU)訓(xùn)練最新、最先進(jìn)的圖像分類模型。你想在自己還不錯(cuò)的筆記本上訓(xùn)練?去度個(gè)一周的假吧,等你回來(lái)的時(shí)候訓(xùn)練很可能仍未完成。

此外,如果你的訓(xùn)練模型表現(xiàn)不佳呢?你不得不返回原點(diǎn),用不同的訓(xùn)練參數(shù)重做全部工作。這一過(guò)程可能會(huì)重復(fù)數(shù)百次。

但有時(shí)候所有這些完全沒(méi)必要。因?yàn)閭鹘y(tǒng)計(jì)算機(jī)視覺(jué)技術(shù)可以比深度學(xué)習(xí)更有效率地解決問(wèn)題,而且使用的代碼更少。例如,我曾經(jīng)參與的一個(gè)項(xiàng)目是檢查每個(gè)通過(guò)傳送帶的罐子里是否有一個(gè)紅勺子?,F(xiàn)在你可以通過(guò)前文敘述的曠日持久的過(guò)程來(lái)訓(xùn)練一個(gè)深度神經(jīng)網(wǎng)絡(luò)去檢測(cè)勺子,或者你也可以寫(xiě)一個(gè)簡(jiǎn)單的以紅色為閾值的算法(將任何帶有一定范圍紅色的像素都標(biāo)記為白色,所有其它的像素標(biāo)記為黑色),然后計(jì)算有多少白色的像素。簡(jiǎn)簡(jiǎn)單單,一個(gè)小時(shí)就可以搞定!

掌握傳統(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)可能會(huì)為你節(jié)省大量的時(shí)間并減少不必要的煩惱。

傳統(tǒng)計(jì)算機(jī)視覺(jué)會(huì)提升你的深度學(xué)習(xí)技巧

理解傳統(tǒng)的計(jì)算機(jī)視覺(jué)實(shí)際上能幫你在深度學(xué)習(xí)上做得更好。

舉例來(lái)說(shuō),計(jì)算機(jī)視覺(jué)領(lǐng)域最為普遍使用的神經(jīng)網(wǎng)絡(luò)是卷積神經(jīng)網(wǎng)絡(luò)。但什么是卷積?卷積事實(shí)上是一種被廣泛使用的圖像處理技術(shù)(比如,索貝爾邊緣檢測(cè))。了解這一點(diǎn)可以幫助你理解神經(jīng)網(wǎng)絡(luò)內(nèi)部究竟發(fā)生了什么,從而進(jìn)行設(shè)計(jì)和微調(diào)以更好地解決你的問(wèn)題。

還有一件事叫做預(yù)處理。你輸入給模型的數(shù)據(jù)往往要經(jīng)過(guò)這種處理,以便為接下來(lái)的訓(xùn)練做準(zhǔn)備。這些預(yù)處理步驟主要是通過(guò)傳統(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)完成的。例如,如果你沒(méi)有足夠的訓(xùn)練數(shù)據(jù),你可以進(jìn)行一個(gè)叫做數(shù)據(jù)增強(qiáng)的處理。數(shù)據(jù)增強(qiáng)是指對(duì)你訓(xùn)練數(shù)據(jù)集中的圖像進(jìn)行隨機(jī)的旋轉(zhuǎn)、移動(dòng)、裁剪等,從而創(chuàng)造出「新」圖像。通過(guò)執(zhí)行這些計(jì)算機(jī)視覺(jué)操作,可以極大地增加你的訓(xùn)練數(shù)據(jù)量。

結(jié)論

本文闡述了為什么深度學(xué)習(xí)還沒(méi)有取代傳統(tǒng)計(jì)算機(jī)視覺(jué)技術(shù),以及后者仍值得學(xué)習(xí)和傳授。首先,本文將目光放在了深度學(xué)習(xí)往往需要大量數(shù)據(jù)才能表現(xiàn)良好這一問(wèn)題上。有時(shí)并不具備大量數(shù)據(jù),而傳統(tǒng)計(jì)算機(jī)視覺(jué)在這種情況下可作為一種替代方案。第二,深度學(xué)習(xí)針對(duì)特定的任務(wù)偶爾會(huì)做過(guò)頭。在這些任務(wù)中,標(biāo)準(zhǔn)的計(jì)算機(jī)視覺(jué)比起深度學(xué)習(xí)可以更為高效地解決問(wèn)題,并且使用更少的代碼。第三,掌握傳統(tǒng)計(jì)算機(jī)視覺(jué)確實(shí)可以讓你在深度學(xué)習(xí)方面做得更好。這是因?yàn)槟憧梢愿玫乩斫馍疃葘W(xué)習(xí)的內(nèi)部狀況,并可執(zhí)行預(yù)處理步驟改善深度學(xué)習(xí)結(jié)果。

總而言之,深度學(xué)習(xí)只是一種計(jì)算機(jī)視覺(jué)的工具,而不是包治百病的良藥。不要因?yàn)榱餍芯鸵晃兜厥褂盟?。傳統(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)仍然可以大顯身手,了解它們可以為你省去很多的時(shí)間和煩惱。

標(biāo)簽:

點(diǎn)贊

分享到:

上一篇:高壓變頻器圖紙?jiān)斀?/a>

下一篇:【入門】人機(jī)界面(HMI)產(chǎn)品...

中國(guó)傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:凡本網(wǎng)注明[來(lái)源:中國(guó)傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國(guó)傳動(dòng)網(wǎng)(www.surachana.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來(lái)源“中國(guó)傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來(lái)源的稿件,均來(lái)自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來(lái)源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

網(wǎng)站簡(jiǎn)介|會(huì)員服務(wù)|聯(lián)系方式|幫助信息|版權(quán)信息|網(wǎng)站地圖|友情鏈接|法律支持|意見(jiàn)反饋|sitemap

傳動(dòng)網(wǎng)-工業(yè)自動(dòng)化與智能制造的全媒體“互聯(lián)網(wǎng)+”創(chuàng)新服務(wù)平臺(tái)

網(wǎng)站客服服務(wù)咨詢采購(gòu)咨詢媒體合作

Chuandong.com Copyright ?2005 - 2025 ,All Rights Reserved 深圳市奧美大唐廣告有限公司 版權(quán)所有
粵ICP備 14004826號(hào) | 營(yíng)業(yè)執(zhí)照證書(shū) | 不良信息舉報(bào)中心 | 粵公網(wǎng)安備 44030402000946號(hào)