自動駕駛的道德悖論之所以出現(xiàn)是因為這一問題在自動駕駛時代本質(zhì)是一個算法問題。是背后的編程人員根據(jù)現(xiàn)實經(jīng)濟收益與成本考量的理性選擇。也即意味著編程人員需要為無人駕駛的各種問題承擔(dān)責(zé)任。而事實是,無人駕駛能否被人類接受,其核心障礙是人類是否可以接受一個可能犯錯的機器。如果人類接受無人駕駛,或者日后出現(xiàn)的智能機器人,并允許他們進入人類社會與我們共處,我們在接受他們提供的便利的同時,也必須接受它們可能的犯錯。
文丨AutoR智駕小語吳鵬飛
無人駕駛在推動一個產(chǎn)業(yè)成長的同時,對于無人駕駛?cè)绾芜M入人類社會正在成為一個變得迫切的問題。
如果我們把具有無人駕駛功能的汽車稱之為輪式機器人的話,對于這樣新進入人類出行的新生物種,引發(fā)的將不止是法律適用的問題,同時會牽涉不少的倫理與道德問題。
而其中的一項道德悖論是當(dāng)無人駕駛汽車在沒有選擇只能選擇一方碰撞時,到底如何選擇。
在這個月末的8月23日,繼美國對無人駕駛出臺首部法規(guī)一年之后,德國交通運輸與數(shù)字基礎(chǔ)建設(shè)部下屬的道德委員會公布了一套被稱為世界上首部的自動駕駛道德準則,供國內(nèi)發(fā)展自動駕駛技術(shù)的車商參考。道德委員會經(jīng)過評估報告,由科學(xué)家和法律專家共同提出15條自駕系統(tǒng)的駕駛決策道德準則,準則的核心原則是:生命應(yīng)該始終優(yōu)先于財產(chǎn)或動物。
德國運輸部長亞歷山大·多布林德(DanDobrindt)在一份聲明中說:"人與人之間的相互作用在數(shù)字化和自主系統(tǒng)的時代引起了新的道德問題,倫理委員會已經(jīng)開展了開創(chuàng)性的工作,并制定了世界上第一個自動駕駛準則,我們正在實施這些指引"。
準則規(guī)定無人駕駛汽車的系統(tǒng)必須要不惜一切代價的考慮把人的生命放在首位,也就是說當(dāng)事故已經(jīng)無法避免時,無人駕駛汽車可能就要選擇撞向建筑等障礙物,而有著車體的保護,這樣的判斷更容易獲得兩全的結(jié)果。另外規(guī)定監(jiān)視系統(tǒng),如黑盒子,應(yīng)該記錄活動,以便以后確定事故中誰處于錯誤的方面:司機或技術(shù)。
報告規(guī)定的軟件設(shè)計人員的15條規(guī)則,雖然這些準則涵蓋了簡單的決定,比如把司機的生活優(yōu)先于松鼠或郵箱,但還有其他更細微的問題仍然留給人的職權(quán)范圍。報告說:"真正的困境決定,例如人與人之間的決定,取決于實際的具體情況,納入受影響的各方的"不可預(yù)測的"行為。"因此,他們不能被明確地標準化,也不能被編程,使他們在倫理上是不容置疑的。"
這些規(guī)范以安全、人性尊嚴、人身選擇自由及數(shù)據(jù)自主性為重點。
其中明確,人類生命一定是首要任務(wù),在事故無可避免的情況下,人的生命要比其他動物、建物都還重要。另外,當(dāng)碰到"直走會撞死1個老人,但救2個小孩;急轉(zhuǎn)彎會撞死2個小孩,但救一個老人"這種著名的道德難題時,規(guī)范中指出,自駕系統(tǒng)不得以任何年齡、性別、種族、是否殘疾等條件,作為"犧牲"和"獲救"的判斷選擇標準。因為人類的生命都是平等的。
事實上這一人類的生命都是平等的判斷,將會加劇自動駕駛系統(tǒng)的選擇難度。
同時這部規(guī)則意味著它可能事實上無法解決自動駕駛的道德悖論,還會導(dǎo)到更多沖突的發(fā)生。
這一原則并沒有解決問題。
因為在現(xiàn)實世界,不僅僅是中國,同命不同價其實是一個普遍現(xiàn)象,這是現(xiàn)實世界殘酷的一面。
一個簡單的事例是,在保險公司眼中,一個九旬老人與一個二十歲的青壯年價值是完全不同的。
在不同的主體看來,生命的價值具有不對等的經(jīng)濟價值。
2015年,谷歌自動駕駛項目的負責(zé)人當(dāng)時表示,谷歌的汽車將無法決定誰是一個更好的人,在道德上,有不可避免的碰撞損失。相反,該公司正在努力保護最脆弱的人。
而保護脆弱的人意味著必須對人,不同的人作出劃分,對一個人的生命價值與一群人的生命價值作出比對。
這也即是早已存在的由哲學(xué)家PhilippaFoot提出的"電車難題"。
這一難是是用來批判倫理哲學(xué)中的主要理論,特別是功利主義,它的內(nèi)容是這樣的:
五個無辜的人被綁在電車軌道上。一輛失控的電車朝他們駛來,并且片刻后就要碾壓到他們。幸運的是,你可以拉一個拉桿,讓電車開到另一條軌道上。但是在那另一條軌道上也綁了一個人。你有兩個選擇:1.不拉桿,五人死于你手下。2.拉桿,一人死亡。你會怎么做呢?
PhilippaFoot所批判的功利主義,其實也是很多人自認為正確的,即大部分道德決策都是根據(jù)"為最多的人提供最大的利益"的原則。
這一難題即以一個功利主義者的觀點來看,明顯的選擇應(yīng)該是拉拉桿,拯救五個人只殺死一個人。
但是功利主義的批判者認為,一旦拉了拉桿,你就成為一個不道德行為的同謀--你要為另一條軌道上單獨的一個人的死負部分責(zé)任。
然而,其他人認為,你身處這種狀況下就要求你要有所作為,你的不作為將會是同等的不道德。總之,不存在完全的道德行為,這就是重點所在。
這一難題在不同的時代有不同的演化版本,在自動駕駛時代,美國弗吉尼亞州交通創(chuàng)新與研究中心科學(xué)家諾亞·古道爾曾提出一種場景:假設(shè)一輛自動駕駛汽車馬上就要撞到障礙物,它可以選擇向左邊或右邊急轉(zhuǎn)彎,但一邊"目標"是戴頭盔的摩托車,另一邊的"目標"是不敢戴頭盔的摩托車手。
按照撞擊優(yōu)化算法的原則,無人駕駛汽車會選擇撞向戴頭盔的摩托車手,因為從統(tǒng)計數(shù)據(jù)來看,不戴頭盔的車手更有可能死于車禍。
不過這一算法明顯存在歧視,遵守規(guī)則的戴頭盔車手卻遭到了懲罰,這一定程度上還是違反了自動駕駛的道德準則。根據(jù)德國給出的道德準則,這個問題似乎得到了答案:無人駕駛汽車撞向障礙物。
然而,新的問題又來了,車內(nèi)人的安全就一定能夠得到保障嗎?萬一車內(nèi)不止一人,并且還有兒童,相對于騎摩托的車手,誰的安全更重要?從辯證的角度來看,"同命不同價"是無人駕駛需要考慮的重要一點,而非一句生命第一位就能含糊概括的。多條生命之間該選誰?德國這條道德準則并沒有給出答案。
自動駕駛的道德悖論之所以出現(xiàn)是因為這一問題在自動駕駛時代本質(zhì)是一個算法問題。
是背后的編程人員根據(jù)現(xiàn)實經(jīng)濟收益與成本考量的理性選擇。
也即意味著編程人員需要為無人駕駛的各種問題承擔(dān)責(zé)任。
但如何規(guī)避這一悖論,對不同人的生命做出排序是一個無法避免的問題,而目前建立在駕駛行為數(shù)據(jù)上的UBI保險,其背后考量的也是如此,并已經(jīng)做為一種商業(yè)模式開始運轉(zhuǎn)。
在政治正確層面,生命至高無尚,每個人的生命都是不可替代的,但一個殘酷的現(xiàn)實是同命不同價是現(xiàn)實存在的。
即便不單純指出在中國遇到車禍因城市戶口與農(nóng)村戶口的不同,導(dǎo)致的賠償金額不同,即便在西方法治社會,撞向老人和兒童,所遭遇的賠償也是不同的。
但是在自動駕駛程序設(shè)計中,如果將賠償金額不同做為一種被動碰撞的選擇設(shè)定,則無異于一種預(yù)先設(shè)計的謀殺,其面對的社會質(zhì)疑無疑是巨大的。
一方面程序的設(shè)計者與無人駕駛汽車的擁有者都將承擔(dān)巨大的道德壓力。
那么機器人三原則可以解決這一困境嗎?
1940年,科幻作家阿西莫夫提出為保護人類,對機器人做出了三項規(guī)定。
第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾;
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
按照可無人駕駛的汽車其實就是輪式機器人的判斷,這三原則似乎符合無人駕駛的系統(tǒng)設(shè)定。
機器人三原則其實暗含了這樣的思維,如果情況緊急,為了保護人類可以犧牲自己。
不過與一般的機器人不同,為了保護行人,無人駕駛汽車可以犧牲自己會產(chǎn)生一個更大的悖論:坐在車內(nèi)的司機可能也會受到傷害,做為一件商品,做為理性人誰會去購買一件可能傷害購買者本身的汽車?
奔馳在這一問題上立場確是十分鮮明:優(yōu)先保護車內(nèi)乘客安全,為此甚至可以傷害弱小的兒童。
2016年,德國梅賽德斯-奔馳公司澳大利亞分公司高管戴維·麥卡錫的話報道,按照無人駕駛汽車的編程思路,如果在行駛途中面臨一個道德困境,要么撞到馬路上的一名兒童,要么急打方向盤以避免撞到兒童、但可能撞到其他車道的汽車以致本車人員傷亡,那么無人駕駛汽車會"果斷"選擇優(yōu)先保護車內(nèi)人員、寧愿撞到兒童。
麥卡錫說,一般人遇到這種情況,會立即作出踩剎車、打方向盤以避免撞人的反應(yīng),"我們的系統(tǒng)也是如此,但還會考慮更多因素,例如其他車道是否有汽車行駛?如果本車采取避讓舉動,有可能會撞上其他車道的汽車,結(jié)果導(dǎo)致本車偏離方向、反而沖向路人"。
按照麥卡錫的說法,無人駕駛汽車能在危急關(guān)頭瞬間判斷出"最佳選擇",從而將損傷降至最低。
奔馳的選擇在一定程度上與2016年美國的一項調(diào)查有某種程度上的契和之處。在這一調(diào)查中,受訪者普遍認為無人駕駛汽車不應(yīng)為拯救一名路人而犧牲車內(nèi)人員。
但當(dāng)問卷中被拯救的路人數(shù)量增多,愿意犧牲車內(nèi)人員以拯救路人的受訪者比例隨之升高。
當(dāng)被拯救的路人數(shù)量增至10人,受訪者普遍贊同應(yīng)優(yōu)先拯救路人。但與此同時,這些受訪者表示自己更加不愿意購買無人駕駛汽車。
自動駕駛的這一道德悖論無論將生命放在第一位還是第二位,在現(xiàn)實世界看來都將是一個無解的問題。
而其實這一問題如何設(shè)定,一個前提即是不能由生產(chǎn)廠商自行設(shè)定,無人駕駛的算法設(shè)定既不可違背法律,也必須建立在公序良俗之上,而由政府設(shè)定某些原則是必須的。
德國交通部出臺的首部無人駕駛道德準則是及時的,也是負責(zé)任的,盡管目前他可能會催生更多的混亂,類似于正確的廢物話。
事實上,無人駕駛的道德準則僅憑一句生命第一還遠遠不夠。程序沒有思想,只能執(zhí)行,所以無人駕駛車遇到的突發(fā)情況都需要工程師進行理性的分析,通過收集數(shù)據(jù)和軟件算法給出最安全的方案,保證最大的存活率。
也許大數(shù)據(jù)最終會給無人駕駛一個在道德選擇時最合理的結(jié)果。
不過在探討這一看似無解的悖論時,它其實體現(xiàn)了人類的內(nèi)心有一個無妄之念,即希望人類可以通過窮盡一切可能,讓機器不犯錯,零犯錯。
而事實是,無人駕駛能否被人類接受,其核心障礙是人類是否愿意接受一個可能犯錯的機器。
如果人類接受無人駕駛,或者日后出現(xiàn)的智能機器人,并允許他們進入人類社會與我們共處,我們在接受他們提供的便利的同時,也必須接受它們可能的犯錯。
手機都可能死機,機器人怎么可能不犯錯呢?
如果我們可以接受一個可能會犯錯的無人駕駛汽車,這背后其實就是一個責(zé)任問題了。
這也意味著無人駕駛汽車的擁有者將承擔(dān)因道德選擇而導(dǎo)致最終后果的責(zé)任。
也即解決無人駕駛道德選擇的問題,不再使之是一個算法問題而是一個經(jīng)濟賠償問題。
而為此那些宣揚無人駕駛時代是零傷亡的生產(chǎn)商們應(yīng)該更改一下他們向人類許下的空頭支票。雖然90%的車禍歸咎于人為失誤,但無人駕駛并不代表完全沒有車禍,零傷亡是一個虛妄的想像,現(xiàn)實世界誰都會犯錯,即便是一臺比人類還要聰明的機器。
更多資訊請關(guān)注汽車制造頻道