人工智能其實是無限接近人類,具有極強(qiáng)的決定能力,可對周圍的態(tài)勢做出判斷并且分析下一步的趨勢,這就像無人機(jī)的編程那樣,通過機(jī)載傳感器獲得周圍的環(huán)境情況,然后通過復(fù)雜的算法控制無人機(jī)在空中的動作,自主決定是否空中懸停還是對目標(biāo)采取行動。
人工智能機(jī)器人會無情地追求自己的目標(biāo),從人類的角度看可稱之為失控,對于智能機(jī)器人而言,它只不過將算法所賦予的能力發(fā)揮到極點(diǎn),而那些失去“理性”的智能機(jī)器人很有可能變成人類的殺手,與我們戰(zhàn)斗到死。
霍金:機(jī)器人可能“比我們聰明”
7月6日信息,據(jù)媒體報道,著名物理學(xué)家斯蒂芬•霍金出席了美國HBO頻道的“LastWeekTonight”節(jié)目,并與主持人約翰•奧利弗展開了深刻而有意義的對話,并認(rèn)為機(jī)器人可能“比我們聰明”。
當(dāng)奧利弗問及霍金他最希望人們能夠理解什么事情時,霍金回答說:“虛時間(imaginarytime)。”他說道:“虛時間就像是宇宙空間中的另一個方向,這是我的作品中還未被科幻小說家使用過的一則假說。”
說實話,盡管所有的科幻小說只是在科學(xué)家的作品中加入了血和性等元素,那為什么沒有科幻小說作家在虛時間的基礎(chǔ)上創(chuàng)作故事呢?霍金說道:“他們不理解虛時間。”
當(dāng)然,筆者也不能假裝理解什么是虛時間。無論如何,它是一種與時間有關(guān)的東西,與每天侵蝕我們的時間朝著不同的方向運(yùn)行。
不過,奧利弗最希望了解的是人工智能。與眾多人工制成品一樣,人工智能對人類而言也可能是有害,甚至是致命的。
霍金對此非常肯定:“人工智能在并不遙遠(yuǎn)的未來可能會成為一個真正的危險。”但肯定不是在谷歌那群好男孩的掌握之下嗎?霍金認(rèn)為,這或許將與谷歌那些好男孩的想法無關(guān)。因為一般的機(jī)器人可以“進(jìn)行設(shè)計改進(jìn)它自己,使得它們自己比我們所有人都更聰明。”
奧利弗繼續(xù)問道:“那為什么我不應(yīng)該為能夠與機(jī)器人戰(zhàn)斗而感到興奮呢?”霍金給出的回答很干脆:“你會輸?shù)簟?rdquo;
奧利弗開始擔(dān)心之前根本不是霍金在與他談話,而有可能是一個充滿智慧的計算機(jī)在同他問答?;艚鸹卮鹫f:“你是個白癡”。
但這難道不是人類的本質(zhì)嗎?盡管我們認(rèn)為我們什么都知道,至少當(dāng)我們對自己誠實時,我們最清楚的一件事就是——我們都是傻瓜。我們所不知道的要遠(yuǎn)遠(yuǎn)超過我們所做到的。
事實上,考慮到世界上可能有很多平行宇宙,奧利弗懷疑是不是在某個平行宇宙里,他可能會比霍金聰明。“是的,”霍金回答道,“而且還有一個宇宙,在那里你很有趣。”
“殺人機(jī)器人”很快會出現(xiàn)
國際人權(quán)組織“人權(quán)觀察”就是其中之一,2012年11月他們聯(lián)合美國哈佛大學(xué)發(fā)表了一份報告,呼吁國際間禁止研發(fā)全自動武器系統(tǒng)。這種可以在不受人類操縱的情況下對目標(biāo)自行發(fā)動攻擊的武器,也被稱作“殺人機(jī)器人”。
巧合的是,就在這份報告發(fā)布3日后,美國國防部發(fā)布了一份關(guān)于“全自動武器系統(tǒng)”的指令,據(jù)英國《衛(wèi)報》12月3日報道,指令指出,這種系統(tǒng)一旦激活,即可自行選擇和處理目標(biāo)而不需要任何人的操控。同時將建立相關(guān)政策,分配開發(fā)和使用自動或半自動武器系統(tǒng)的人的責(zé)任。
事實上,這已經(jīng)不是美軍第一次討論這種武器的可能性,早在2004年美國國防部就已經(jīng)給研發(fā)者亮了綠燈。總的來說,美國國防部希望的是最徹底的實驗,從研發(fā)到使用到操作者的培訓(xùn),并確保適用法律的配套,而且確保有人類電腦終端能結(jié)束錯誤任務(wù)。當(dāng)然他們也反復(fù)強(qiáng)調(diào)了建立有關(guān)政策防止任何可能出現(xiàn)的錯誤而導(dǎo)致系統(tǒng)的失控。
人工智能會否成為殺人武器
全自動武器系統(tǒng)若要有一定的自行判斷能力,就要以人工智能為基礎(chǔ)。但隨著人工智能的發(fā)展,出現(xiàn)殺人機(jī)器人的擔(dān)憂會越來越多,甚至人們也會擔(dān)心用于其他地方的服務(wù)型機(jī)器人也可能因為某些錯誤的出現(xiàn)而導(dǎo)致安全問題。尤其是當(dāng)人工智能越來越接近人類的智力,甚至擁有了類人的情感。
在專業(yè)領(lǐng)域內(nèi),一些專家將機(jī)器人學(xué)和人工智能看做是兩個獨(dú)立的學(xué)科。美國計算機(jī)科學(xué)教材系列《人工智能》作者提姆·瓊斯(TimJones)認(rèn)為,機(jī)器人學(xué)和人工智能是兩個獨(dú)立的領(lǐng)域,但卻是相互補(bǔ)充的。機(jī)器人為人工智能提供了其他事物所不能提供的物理表現(xiàn)形式。
他對記者說:“雖然可以通過機(jī)器人模擬,了解人工智能應(yīng)用在機(jī)器人上時可能產(chǎn)生的問題,但是模擬容易掩蓋一些需要解決的問題。因為,模擬本身是人工控制環(huán)境的,而機(jī)器人本身和自然環(huán)境卻是復(fù)雜和凌亂的。”
因此,瓊斯在他編寫的教材中,將機(jī)器人學(xué)和人工智能分離為兩個學(xué)科。“機(jī)器人學(xué)能為人工智能研究帶來好處。雖然我們可以制造一個完全不結(jié)合人工智能的機(jī)器人,這種機(jī)器人系統(tǒng)只是按預(yù)定程序辦事,但它的重要性絕不能與建立一個擁有智能的機(jī)器人系統(tǒng)相比。”
當(dāng)人工智能越來越高級,擁有人工情感、類人情感就成為一個必然的方向。瓊斯也告訴《中國科學(xué)報》記者,沒有情緒的機(jī)器就不能稱之為擁有真正的人工智能,但不是所有的情緒對機(jī)器都是有利的。如果一個機(jī)器能夠展現(xiàn)憤怒或嫉妒這樣的情緒那就隱藏著危險。他說:“擁有情感能讓機(jī)器感知用戶的情感。能表達(dá)和能感知情緒都是有必要的,但是這也會導(dǎo)致新的問題。”
更多資訊請關(guān)注自動化軟件頻道