人工智能越來越像人,人類對機器有了感情怎么辦?
"人類是否會與人工智能產(chǎn)生感情,將取決于這種過程是否給人類帶來愉悅。正如互聯(lián)網(wǎng)發(fā)展早期的一句常用語所說--在互聯(lián)網(wǎng)上,沒人知道你是一條狗。這表明,當人類在不知道溝通者的身份時,只要對方能夠給自己帶來愉悅,感情就可能產(chǎn)生。"趙聯(lián)飛認為,這可能會對人類的交往模式帶來影響。比如說,未來,知識型的人工智能可以回答人們能夠想到的很多問題,從而導(dǎo)致個體學習方式、生活方式乃至社會化模式的變革。
假如人與人工智能出現(xiàn)類夫妻、父女等情感,將考問現(xiàn)代倫理規(guī)范。"如果社會主流意見認為這種關(guān)系符合倫理,人們可能傾向于以類似于夫妻、父女之間的倫理準則來調(diào)節(jié)二者之間的關(guān)系;但如果人們始終認為,人與人工智能之間的關(guān)系是人占主導(dǎo)地位的'游戲關(guān)系',那么相應(yīng)的倫理標準也就無從談起。"趙聯(lián)飛說。
未雨綢繆
專家建議完善人工智能技術(shù)規(guī)范和法律約束
面對人工智能帶來的種種沖擊,專家認為,上世紀50年代美國科幻小說家阿西莫夫提出的機器人三大定律,今天依然有借鑒意義。這三大定律是:機器人不得傷害人,也不得見人受到傷害而袖手旁觀;機器人應(yīng)服從人的一切命令,但不得違反第一定律;機器人應(yīng)保護自身的安全,但不得違反第一、第二定律。
"歸根結(jié)底,人是智能行為的總開關(guān)。"吳飛認為,人類完全可以做到未雨綢繆,應(yīng)對人工智能可能帶來的威脅。
"開發(fā)者應(yīng)該始終把人工智能對社會負責的要求,放在技術(shù)進步的沖動之上。正如生物克隆技術(shù),從提出克隆技術(shù)那一天開始,克隆的社會倫理問題就始終優(yōu)先于克隆的技術(shù)問題。"趙聯(lián)飛認為,人類應(yīng)該在開發(fā)人工智能的過程中,逐步積累控制人工智能的經(jīng)驗和技術(shù),尤其是防止人工智能失控的經(jīng)驗和技術(shù)。
在技術(shù)上加強對人工智能的控制是完全可行的。"人工智能盡管日益高級,但究其根本,仍然是在智能程序?qū)Υ罅繑?shù)據(jù)處理基礎(chǔ)上得到的結(jié)果。進行編程時,開發(fā)者可以通過程序?qū)ζ溥M行安全設(shè)置。比如,如果識別出來是人類,要自動保持距離;不能做出攻擊性動作,從力學幅度上予以約束。"中科院自動化所研究員孫哲南說,還可以把人類的法律規(guī)范和道德要求用代碼的形式寫入機器,全部數(shù)字語言化,使其遵守人類的行為準則。
"除了設(shè)計和建造要遵循技術(shù)規(guī)范,還可由政府有關(guān)部門牽頭,成立由人工智能技術(shù)專家、社會科學研究人員、政府管理人員為核心的人工智能管理委員會,對涉及人工智能的研究和開發(fā)項目進行審核評估,嚴格控制從技術(shù)轉(zhuǎn)化為產(chǎn)品的環(huán)節(jié)。"趙聯(lián)飛認為,此外,應(yīng)從多個方面加強對人工智能的研究,跟蹤、了解人工智能的發(fā)展趨勢和實踐,開展以未來學為基本范式的研究。(記者劉詩瑤)
更多資訊請關(guān)注工業(yè)機器人頻道