今年兩會,百度李彥宏再次提出了有關人工智能的體驗,與此同時其他科技大佬對于人工智能的應用也越發(fā)關注起來。
小米雷軍提出要在國家層面進行人工智能發(fā)展的頂層設計,科大訊飛劉慶峰一口氣提出了人工智能有關的九條建議,騰訊CEO馬化騰也承認,人工智能技術有可能成為戰(zhàn)略上的制高點,就連宗慶后、郭廣昌等企業(yè)大佬也在不同場合發(fā)表了對人工智能的看法。
不可否認,去年Google旗下的AlphaGo于極之復雜的圍棋戰(zhàn)中擊敗人類,讓人們對于AI的關注達到了前所未有的高潮,各種論調此起彼伏。
一些嶄新的AI技術有可能會取代人們的工作,加之許多電影里設想出現的人造物種反抗人類的畫面,更是引起人們的一絲恐懼,人工智能是否如此駭人,將關系到人類的存亡?
作為人工智能(AI)技術的支持者,著名物理學家史蒂芬·霍金(StephenHawking)對于AI帶來的潛在挑戰(zhàn)也感到擔憂。他最近在接受英國《倫敦時報》采訪時,對未來表示樂觀,不過他對AI的崛起和其他全球性威脅感到擔憂。
他認為,各國應該共同采取行動,甚至組建“世界性政府”。霍金說:“我們需要以更快的速度識別這類威脅,并在它們失控前采取行動。這可能意味著,我們需要組建某種形式上的世界性政府?!笨墒腔艚鹨簿娣Q,這種方法有可能催生“暴政”。
比爾。蓋茨曾直言不諱:“我屬于擔心超級智能的陣營。最初,機器可以為我們做很多事情,而非超級智能。如果我們能夠管理好它,它應該可以發(fā)揮積極作用。但是數十年后,人工智能將變得足夠聰明,值得我們去擔憂?!?/p>
英國科學協會主席戴維·威利茨(avidWilletts)說:“如此多的人對人工智能感到憂慮并不令人感到驚訝。創(chuàng)新經常令人感到恐懼,但請記住,經濟和世界都在不斷變化,新興技術的崛起和采用都需要時間。這項研究顯示,在我們持續(xù)創(chuàng)新時,也需要聆聽公眾的恐懼?!?/p>
除此之外,還有眾多大佬也發(fā)表了其對于人工智能的看法,讓我們一起來看一看吧。
英國牛津大學教授、人類未來研究所創(chuàng)始人尼克·博斯特羅姆(NickBostrom)寫道:“我認為改善全球治理很有必要,不僅可應對AI帶來的危險挑戰(zhàn),也可解決擺在我們面前的其他巨大挑戰(zhàn)。隨著世界不斷分化,我們在不斷開發(fā)出越來越強大的工具,我不確定人類是否能夠無限期生存下去。”
中國科學院院士、清華大學教授姚期智認為,愈是重復及簡單的工作,被AI或其他科技取代的機會愈高,這于文明進步的過程中難以避免。不過他亦強調,AI能力縱使可以非常強大,最終是由人類決定的,“它可以貢獻社會,也可以被人利用來做一些破壞社會的事情,所以要說的話人類其實更加危險?!?/p>
計算機科學教授、人工智能先驅StuartRussell表示,“危險不會來自于機器突然發(fā)展出的惡意的自主意識,”他說,“重要的是你要知道,我們不是要阻止這樣的事,因為我們對于意識本身是什么還一無所知?!?/p>
“問題不在于意識,而在于權限。我們賦予機器很大的權限,希望它來完成某個目標,但它在完成目標的過程中可能會引起災難?!?/p>
“一旦你把AI放到真實世界中,放到無人駕駛汽車、數字助理等應用中……當AI開始幫你購買對你利益有影響的物品、幫你取消約會時,它們的價值觀立場必須保證和人類一致?!盧ussell說。
為了應對這些問題,Russell和研究中心的同事打算讓AI系統觀察人類的行為,并嘗試理解人類的真正目的是什么,然后根據人類的目的來行事,并且從失誤中吸取經驗。摒棄了為機器提供一長串需要遵守的規(guī)則的做法,他們只告訴機器主要的目標就是做人類想讓他們做的事。
硅谷鋼鐵俠馬斯克表示,要想在AI時代不被淘汰,人類需要與機器相結合,進化成某種半機器人。他認為,計算機在交流時每秒數據交換能達到萬億比特,但人類靠手指輸入只能達到10比特。AI崛起后,人類會變得非常沒用,因此必須與機器結合來提高自己。
在發(fā)言中,馬斯克再次表達了它對“深度AI”的恐懼,這種AI比自動駕駛車輛背后的更加高級,因為它已經有了通用性,因此會比世界上最聰明的人還聰明。馬斯克認為這種AI的出現會使人類陷入危險境地。
由此可見,就現在的科技水平來講,未來一段時間內不會有什么潛在危險,但大佬們對于人工智能的擔憂也不無道理。任何事情都是雙向的,人們發(fā)明了這么多的東西,有利也有弊,但是社會是向前發(fā)展的,人工智能的趨勢不會停止,要看人們怎么去利用了。
更多資訊請關注工業(yè)機器人頻道