關(guān)于人工智能,長(zhǎng)期存在兩種不同的目標(biāo)或者理念。一種是希望借鑒人類的智能行為,研制出更好的工具以減輕人類智力勞動(dòng),一般稱為“弱人工智能”,類似于“高級(jí)仿生學(xué)”。另一種是希望研制出達(dá)到甚至超越人類智慧水平的人造物,具有心智和意識(shí)、能根據(jù)自己的意圖開(kāi)展行動(dòng),一般稱為“強(qiáng)人工智能”,實(shí)則可謂“人造智能”。
人工智能技術(shù)現(xiàn)在所取得的進(jìn)展和成功,是緣于“弱人工智能”而不是“強(qiáng)人工智能”的研究。正如國(guó)際人工智能聯(lián)合會(huì)前主席、牛津大學(xué)計(jì)算機(jī)系主任邁克爾·伍德里奇(MichaelWooldrige)教授在2016年CCF-GAIR大會(huì)1報(bào)告中所說(shuō):強(qiáng)人工智能“幾乎沒(méi)有進(jìn)展”,甚至“幾乎沒(méi)有嚴(yán)肅的活動(dòng)”(“l(fā)ittleprogress,littleseriousactivity”)。事實(shí)上,人工智能國(guó)際主流學(xué)界所持的目標(biāo)是弱人工智能,也少有人致力于強(qiáng)人工智能。
?牛津大學(xué)邁克爾·伍德里奇教授
首先,從技術(shù)上來(lái)說(shuō),主流人工智能學(xué)界的努力從來(lái)就不是朝向強(qiáng)人工智能,現(xiàn)有技術(shù)的發(fā)展也不會(huì)自動(dòng)地使強(qiáng)人工智能成為可能。
不妨看看現(xiàn)在人工智能技術(shù)所取得的成功。在圖像識(shí)別、語(yǔ)音識(shí)別方面,機(jī)器已經(jīng)達(dá)到甚至超過(guò)了普通人類的水平;在機(jī)器翻譯方面,便攜的實(shí)時(shí)翻譯器已成為現(xiàn)實(shí);在自動(dòng)推理方面,機(jī)器很早就能進(jìn)行定理自動(dòng)證明;在棋類游戲方面,機(jī)器已經(jīng)打敗了最頂尖的人類棋手……可以看出,上述成功有一個(gè)共同的特點(diǎn):它們都是在考慮某種特定類型的智能行為,而不是“完全智能”行為2。一方面,聚焦在特定類型的智能行為上,才使得任務(wù)成為可能而非空談3;另一方面,如果目標(biāo)是制造“工具”,那么考慮特定類型的智能行為就已足夠,自主心智、獨(dú)立意識(shí)、甚至情感?之類的東西,根本無(wú)須考慮。打個(gè)未必恰當(dāng)?shù)谋确?,如果人們的目?biāo)是造個(gè)工具砸東西,那么造出錘子來(lái)就好了,無(wú)須考慮讓錘子有心智、意識(shí),也不必考慮是否要讓錘子自己感覺(jué)到“疼”。事實(shí)上,人工智能研究活躍的子領(lǐng)域,都是與制造智能“工具”直接相關(guān)的;而對(duì)“強(qiáng)人工智能”必不可少、卻與“工具”不太相關(guān)的內(nèi)容,如自主心智、獨(dú)立意識(shí)、機(jī)器情感之類,罕有嚴(yán)肅的研究。所以,現(xiàn)有技術(shù)即便發(fā)展再快、發(fā)展再好,也不會(huì)直接使得強(qiáng)人工智能成為可能。
第二,即便想研究強(qiáng)人工智能,也不知道路在何方。
有一種說(shuō)法,認(rèn)為如果能夠模擬出“人腦”,把其中的神經(jīng)元、神經(jīng)突觸等全部同規(guī)模地仿制出來(lái),那么強(qiáng)人工智能就會(huì)自然產(chǎn)生。然而,這種說(shuō)法從來(lái)沒(méi)有得到過(guò)一點(diǎn)點(diǎn)證明,嚴(yán)格說(shuō)來(lái)甚至不能稱其為“猜想”,因?yàn)椴孪胍矐?yīng)該有一些即便不夠完備但尚能顯示可能性的證據(jù),例如通過(guò)仿制簡(jiǎn)單細(xì)胞,做出了單細(xì)胞智能生物。實(shí)際上,我們完全有更強(qiáng)烈的理由認(rèn)為,即便能精確地觀察和仿制出神經(jīng)細(xì)胞的行為,也無(wú)法還原產(chǎn)生出智能行為。正如國(guó)際人工智能終身成就獎(jiǎng)得主、多倫多大學(xué)赫克托·萊韋斯克(HectorJ.Levesque)教授在他2017年的新著?中所說(shuō),即便在最理想的情況下,神經(jīng)科學(xué)家也僅是能獲得“目標(biāo)代碼”而已,沒(méi)有理由認(rèn)為獲得了目標(biāo)代碼就能還原出源代碼,因?yàn)檫@樣的“反向工程”即便對(duì)軟件程序來(lái)說(shuō)也幾乎是不可能的,更何況神經(jīng)細(xì)胞內(nèi)部還存在“分布式表示”?。
第三,即便強(qiáng)人工智能是可能的,也不應(yīng)該去研究它。
任何一個(gè)科學(xué)研究領(lǐng)域或許都存在一些不該去觸碰的東西。例如克隆人是被主流生命科學(xué)界所禁止的。強(qiáng)人工智能的造物將具有自主心智、獨(dú)立意識(shí),那么,它憑什么能“甘心”為人類服務(wù)、被人類“奴役”?有人把阿西莫夫的“機(jī)器人三定律”?奉為圭臬,但事實(shí)上這是行不通的。且不論三定律自身的矛盾和漏洞?,憑什么以為有自主心智和獨(dú)立意識(shí),且智能全面達(dá)到甚至超越人類水平的機(jī)器,就不會(huì)把這些約束改掉呢?即便它是善意的,人類又憑什么認(rèn)為它會(huì)同意比它“愚蠢”的人類的判斷?例如它會(huì)不會(huì)以為把人類全部關(guān)進(jìn)監(jiān)獄就可以避免人類互相殘殺,這才是對(duì)人類整體最好的?至于說(shuō),到時(shí)候人類如果覺(jué)得危險(xiǎn)了,可以把機(jī)器的電源斷開(kāi)……這只是開(kāi)個(gè)玩笑吧,真到那個(gè)時(shí)候,機(jī)器恐怕早就能采用其他的方式攝入能源了。總之,強(qiáng)人工智能出現(xiàn)的那一天,恐怕真的就是人類面臨最大生存危機(jī)的時(shí)候。所以,對(duì)嚴(yán)肅的人工智能研究者來(lái)說(shuō),如果真的相信自己的努力會(huì)產(chǎn)生結(jié)果,那就不該去觸碰強(qiáng)人工智能。