霍金:人工智能未來將會成為一個真正的危險

時間:2014-07-11

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:7月6日信息,據(jù)媒體報道,著名物理學(xué)家斯蒂芬?霍金出席了美國HBO頻道的“LastWeekTonight”節(jié)目,并與主持人約翰?奧利弗展開了深刻而有意義的對話,并認(rèn)為機(jī)器人可能“比我們聰明”。

人工智能其實是無限接近人類,具有極強(qiáng)的決定能力,可對周圍的態(tài)勢做出判斷并且分析下一步的趨勢,這就像無人機(jī)的編程那樣,通過機(jī)載傳感器獲得周圍的環(huán)境情況,然后通過復(fù)雜的算法控制無人機(jī)在空中的動作,自主決定是否空中懸停還是對目標(biāo)采取行動。

人工智能機(jī)器人會無情地追求自己的目標(biāo),從人類的角度看可稱之為失控,對于智能機(jī)器人而言,它只不過將算法所賦予的能力發(fā)揮到極點(diǎn),而那些失去“理性”的智能機(jī)器人很有可能變成人類的殺手,與我們戰(zhàn)斗到死。

霍金:機(jī)器人可能“比我們聰明”

7月6日信息,據(jù)媒體報道,著名物理學(xué)家斯蒂芬•霍金出席了美國HBO頻道的“LastWeekTonight”節(jié)目,并與主持人約翰•奧利弗展開了深刻而有意義的對話,并認(rèn)為機(jī)器人可能“比我們聰明”。

當(dāng)奧利弗問及霍金他最希望人們能夠理解什么事情時,霍金回答說:“虛時間(imaginarytime)。”他說道:“虛時間就像是宇宙空間中的另一個方向,這是我的作品中還未被科幻小說家使用過的一則假說。”

說實話,盡管所有的科幻小說只是在科學(xué)家的作品中加入了血和性等元素,那為什么沒有科幻小說作家在虛時間的基礎(chǔ)上創(chuàng)作故事呢?霍金說道:“他們不理解虛時間。”

當(dāng)然,筆者也不能假裝理解什么是虛時間。無論如何,它是一種與時間有關(guān)的東西,與每天侵蝕我們的時間朝著不同的方向運(yùn)行。

不過,奧利弗最希望了解的是人工智能。與眾多人工制成品一樣,人工智能對人類而言也可能是有害,甚至是致命的。

霍金對此非常肯定:“人工智能在并不遙遠(yuǎn)的未來可能會成為一個真正的危險。”但肯定不是在谷歌那群好男孩的掌握之下嗎?霍金認(rèn)為,這或許將與谷歌那些好男孩的想法無關(guān)。因為一般的機(jī)器人可以“進(jìn)行設(shè)計改進(jìn)它自己,使得它們自己比我們所有人都更聰明。”

奧利弗繼續(xù)問道:“那為什么我不應(yīng)該為能夠與機(jī)器人戰(zhàn)斗而感到興奮呢?”霍金給出的回答很干脆:“你會輸?shù)簟?rdquo;

奧利弗開始擔(dān)心之前根本不是霍金在與他談話,而有可能是一個充滿智慧的計算機(jī)在同他問答?;艚鸹卮鹫f:“你是個白癡”。

但這難道不是人類的本質(zhì)嗎?盡管我們認(rèn)為我們什么都知道,至少當(dāng)我們對自己誠實時,我們最清楚的一件事就是——我們都是傻瓜。我們所不知道的要遠(yuǎn)遠(yuǎn)超過我們所做到的。

事實上,考慮到世界上可能有很多平行宇宙,奧利弗懷疑是不是在某個平行宇宙里,他可能會比霍金聰明。“是的,”霍金回答道,“而且還有一個宇宙,在那里你很有趣。”

“殺人機(jī)器人”很快會出現(xiàn)

國際人權(quán)組織“人權(quán)觀察”就是其中之一,2012年11月他們聯(lián)合美國哈佛大學(xué)發(fā)表了一份報告,呼吁國際間禁止研發(fā)全自動武器系統(tǒng)。這種可以在不受人類操縱的情況下對目標(biāo)自行發(fā)動攻擊的武器,也被稱作“殺人機(jī)器人”。

巧合的是,就在這份報告發(fā)布3日后,美國國防部發(fā)布了一份關(guān)于“全自動武器系統(tǒng)”的指令,據(jù)英國《衛(wèi)報》12月3日報道,指令指出,這種系統(tǒng)一旦激活,即可自行選擇和處理目標(biāo)而不需要任何人的操控。同時將建立相關(guān)政策,分配開發(fā)和使用自動或半自動武器系統(tǒng)的人的責(zé)任。

事實上,這已經(jīng)不是美軍第一次討論這種武器的可能性,早在2004年美國國防部就已經(jīng)給研發(fā)者亮了綠燈。總的來說,美國國防部希望的是最徹底的實驗,從研發(fā)到使用到操作者的培訓(xùn),并確保適用法律的配套,而且確保有人類電腦終端能結(jié)束錯誤任務(wù)。當(dāng)然他們也反復(fù)強(qiáng)調(diào)了建立有關(guān)政策防止任何可能出現(xiàn)的錯誤而導(dǎo)致系統(tǒng)的失控。

人工智能會否成為殺人武器

全自動武器系統(tǒng)若要有一定的自行判斷能力,就要以人工智能為基礎(chǔ)。但隨著人工智能的發(fā)展,出現(xiàn)殺人機(jī)器人的擔(dān)憂會越來越多,甚至人們也會擔(dān)心用于其他地方的服務(wù)型機(jī)器人也可能因為某些錯誤的出現(xiàn)而導(dǎo)致安全問題。尤其是當(dāng)人工智能越來越接近人類的智力,甚至擁有了類人的情感。

在專業(yè)領(lǐng)域內(nèi),一些專家將機(jī)器人學(xué)和人工智能看做是兩個獨(dú)立的學(xué)科。美國計算機(jī)科學(xué)教材系列《人工智能》作者提姆·瓊斯(TimJones)認(rèn)為,機(jī)器人學(xué)和人工智能是兩個獨(dú)立的領(lǐng)域,但卻是相互補(bǔ)充的。機(jī)器人為人工智能提供了其他事物所不能提供的物理表現(xiàn)形式。

他對記者說:“雖然可以通過機(jī)器人模擬,了解人工智能應(yīng)用在機(jī)器人上時可能產(chǎn)生的問題,但是模擬容易掩蓋一些需要解決的問題。因為,模擬本身是人工控制環(huán)境的,而機(jī)器人本身和自然環(huán)境卻是復(fù)雜和凌亂的。”

因此,瓊斯在他編寫的教材中,將機(jī)器人學(xué)和人工智能分離為兩個學(xué)科。“機(jī)器人學(xué)能為人工智能研究帶來好處。雖然我們可以制造一個完全不結(jié)合人工智能的機(jī)器人,這種機(jī)器人系統(tǒng)只是按預(yù)定程序辦事,但它的重要性絕不能與建立一個擁有智能的機(jī)器人系統(tǒng)相比。”

當(dāng)人工智能越來越高級,擁有人工情感、類人情感就成為一個必然的方向。瓊斯也告訴《中國科學(xué)報》記者,沒有情緒的機(jī)器就不能稱之為擁有真正的人工智能,但不是所有的情緒對機(jī)器都是有利的。如果一個機(jī)器能夠展現(xiàn)憤怒或嫉妒這樣的情緒那就隱藏著危險。他說:“擁有情感能讓機(jī)器感知用戶的情感。能表達(dá)和能感知情緒都是有必要的,但是這也會導(dǎo)致新的問題。”

更多資訊請關(guān)注自動化軟件頻道

中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.surachana.com)獨(dú)家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運(yùn)動控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺
  • 機(jī)械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0