德國奧斯納布呂克大學(xué)認(rèn)知科學(xué)研究所的研究人員,利用沉浸式虛擬現(xiàn)實(shí)技術(shù),對(duì)人類駕車時(shí)作出的道德決策和行為做了一場(chǎng)實(shí)驗(yàn),并將研究結(jié)果發(fā)布在了《行為神經(jīng)科學(xué)前沿》雜志上。
研究人員將實(shí)驗(yàn)情景設(shè)定在有霧的一天,實(shí)驗(yàn)參與者模擬駕駛一輛汽車行駛在典型的郊區(qū)道路上,此時(shí)他們會(huì)遇到突然間出現(xiàn)的無生命物體、動(dòng)物或者人類,他們必須要在這幾種對(duì)象之中選擇撞上哪個(gè)、躲避哪個(gè)。參與者的行為數(shù)據(jù)被統(tǒng)計(jì)模型獲取,并推導(dǎo)出一系列規(guī)則。這項(xiàng)研究表明,在不可避免的交通碰撞事故發(fā)生時(shí),對(duì)于人類、動(dòng)物或無生命物體的生命價(jià)值,人類是有倫理判斷的,而這些判斷能夠通過算法建立模型。
該論文的第一作者萊昂·蘇特菲爾德說,到目前為止,人們普遍認(rèn)為,人類的道德決策往往是根據(jù)事發(fā)時(shí)情境來確定的,因此它不能用算法進(jìn)行模擬或描述。“但我們的發(fā)現(xiàn)恰恰相反,在進(jìn)退兩難的情境下,實(shí)驗(yàn)參與者會(huì)依據(jù)對(duì)人類、動(dòng)物或無生命物體生命價(jià)值的判斷來進(jìn)行反應(yīng),根據(jù)人類這種生命價(jià)值觀,我們可以建立人類行為的模型,然后通過算法植入機(jī)器中。
目前,人們對(duì)于無人駕駛汽車和其他人工智能機(jī)器的行為仍有爭論,這項(xiàng)研究結(jié)果則會(huì)對(duì)這些爭論產(chǎn)生重要影響,尤其在發(fā)生不可避免的意外情況下。比如,德國聯(lián)邦交通運(yùn)輸和數(shù)字基礎(chǔ)設(shè)施(BMVI)最近發(fā)布了20條與無人駕駛汽車相關(guān)的倫理原則。其中一條是,如果一個(gè)孩子突然沖到馬路上,為了躲避孩子,汽車就必須撞到人行道,但此時(shí)人行道上恰好有一個(gè)成年人。那么,無人駕駛汽車會(huì)選擇撞上孩子,因?yàn)樗麑?dǎo)致了這次重大風(fēng)險(xiǎn),所以失去了得救的資格。但是否所有人都會(huì)做出這樣的選擇?
研究人員高登·皮帕說,既然現(xiàn)在已經(jīng)知道機(jī)器能作出類似人類的道德決策,那么趕緊對(duì)這些倫理問題進(jìn)行討論是非常必要的?!拔覀冃枰懻?,自動(dòng)駕駛系統(tǒng)是否應(yīng)該接受這種價(jià)值判斷,如果應(yīng)該,它是否應(yīng)該模仿人類的決策,又是否應(yīng)該遵循人類的道德理論呢?如果答案是肯定的,那么萬一它的判斷出現(xiàn)錯(cuò)誤,誰又應(yīng)該負(fù)責(zé)任呢?”
“首先,我們需要決定是否將道德價(jià)值觀植入機(jī)器的行為準(zhǔn)則中來。其次,如果植入的話,機(jī)器是否應(yīng)該像人類一樣行事?”研究人員彼得·柯尼希解釋說。
研究人員表示,現(xiàn)在,無人駕駛汽車只是個(gè)開始,醫(yī)療機(jī)器人和其他人工智能設(shè)備正變得越來越普遍。他們警告說,人類現(xiàn)在處于一個(gè)新時(shí)代的開始,在這個(gè)時(shí)候,我們要制定明確的規(guī)則,否則機(jī)器將擺脫人類的束縛,自己作出決定。
更多資訊請(qǐng)關(guān)注PC BASED頻道