面對無法避免的事故,作為一名司機,你必須做出一個瞬間的決定,但對于自動駕駛汽車,你必須通過編程來判斷其后果。在沒有選擇的情況下,你會怎么做?
當(dāng)你乘坐無人駕駛的汽車時,突然有五個人出現(xiàn)在你高速行駛的車的前方,而且當(dāng)時已經(jīng)沒有時間讓汽車停下來,這時,汽車可以選擇選擇猛打方向盤,讓車偏離道路,這樣可能會導(dǎo)致車上乘客死亡;它還有可能選擇徑直軋向那五個人,導(dǎo)致行人的死亡。無人駕駛汽車應(yīng)該怎么做?或許這個問題應(yīng)該是,汽車編程人員教會汽車應(yīng)該做什么?那么又是誰來告訴程序員應(yīng)該怎么做呢?
社會價值決定生死?
在人工智能時代,每一個關(guān)于道德的問題似乎都在引發(fā)另一個問題。利茲培根教授是英國格林尼治大學(xué)建筑、計算和人文學(xué)科的副校長,她還擁有人工智能博士學(xué)位,是英國計算機協(xié)會的前任主席。上周在墨爾本舉行的國際人工智能聯(lián)合會議上培根教授表示,那些關(guān)于AI的法律的辯論仍面臨著大量復(fù)雜的問題亟待解決。
在上述無人駕駛汽車的例子中,培根教授表示,在汽車中輸入的程序需要取代人類在同樣情況下所做的思考。"現(xiàn)在作為一名司機,你必須做出一個瞬間的決定,但對于自動駕駛汽車,你必須通過編程來判斷其后果。"在沒有選擇的情況下,你會怎么做?
"你可以直接用數(shù)字來解決。"汽車可能會說,"我要離開公路,選擇犧牲自己車?yán)锏娜耍皇悄俏鍌€行人。"這取決于汽車的人工智能設(shè)計,以及人們對社會的價值。比如說汽車?yán)锏娜伺銮烧莆罩斡┌Y的方法,而路上那五個人都是越獄的逃犯。
"也許你說他們對社會的價值更少,所以你可能會說'我要把那個人留在車?yán)?。如果你真的考慮到人們對社會的價值,那就會產(chǎn)生可怕的后果。"如果你有一臺電腦可以進(jìn)行瞬間的查找,自動駕駛汽車有各種各樣的關(guān)于他們周圍的人的知識來做出實際的決策。想到如何去編這個程序是很可怕的。接下來的問題是,如果你對算法進(jìn)行編程,說"殺死這些人",那么法院是否會認(rèn)為這是蓄意謀殺?
偏見or蓄意謀殺?
培根教授說:"人們制造自動駕駛汽車就是個巨大的社會道德問題。"他還表示政府需要站出來,解決這些棘手的問題,"政府應(yīng)該迎頭趕上,但我認(rèn)為他們沒有。他們的立法往往落后于現(xiàn)實。我認(rèn)為他們需要嘗試制定一些相關(guān)法律。對決策的實際微調(diào)可以在公司層面進(jìn)行,在中層管理層面上,它可以在程序員的實際水平上完成--這就是我們存在潛在偏見的問題,可能是有意識的偏見或無意識的偏見。"
當(dāng)你的工作是為無人駕駛汽車編程時,你可能會不同意公司關(guān)于自動駕駛汽車應(yīng)該如何處理不同路況的問題。你會讓汽車去撞死行人,不惜一切代價保護車上的人嗎?對此,培根教授說:"偏見會在任何程度的生產(chǎn)中蔓延。每個人都有自己評判對錯的標(biāo)準(zhǔn),也有自己的個人底線,知道自己能夠與之互動。如果你處于壓力之下,你不想失去工作,你的老板會給你施加壓力,讓你做一些你覺得不舒服的事情,這是非常困難的。
黑客操控僵尸車引發(fā)的擔(dān)憂
《速度與激情8》里的僵尸車讓人們看到了無人駕駛汽車被黑客入侵的場景?,F(xiàn)實中,在美國有黑客成功侵入了汽車,并改變了汽車的路徑軌跡,其中包括自動踩下剎車等。"在全球范圍內(nèi),人工智能可以發(fā)揮巨大的作用。但可悲的是,有些人想要傷害我們,他們是不道德的。"培根說:"如果你想要在車?yán)餁⒁粋€人,你就可以侵入他們的汽車,理論上,他們可以把車開到懸崖邊或者撞到墻上。你可以讓它看起來像個意外。"
此外,培根教授還說,雖然我們的道路上仍會有許多死亡案例的發(fā)生,但自動駕駛汽車的帶來,會大幅削減人為駕駛導(dǎo)致的死亡人數(shù),但是也有可能會帶來新一輪"不同類型的死亡"。比如,人類司機可能會殺死A,但自動駕駛汽車可能會殺死B,因為他們的算法不同。
"除了自動駕駛汽車,培根還補充說,人工智能將會滲透到其他領(lǐng)域,比如戰(zhàn)場。"不久之后,我們就不再把人送進(jìn)戰(zhàn)爭了,"她說。"我們派無人機和機器人參與戰(zhàn)斗,幫助我們發(fā)射導(dǎo)彈。"人們遠(yuǎn)程控制機器人進(jìn)行戰(zhàn)斗。這就是未來的發(fā)展方向,很有可能會成為現(xiàn)實。"從這個意義上說,當(dāng)我們有能夠做到這一點的機器人時,人們在前線被殺的可能性會更大。這改變了戰(zhàn)爭的性質(zhì),改變了決策的性質(zhì)。"
當(dāng)車禍發(fā)生,誰應(yīng)被起訴?
當(dāng)我們的親人被無人駕駛汽車撞到,我們應(yīng)該去起訴誰?"這是個大問題,"培根說,"我確實認(rèn)為,在立法方面,我們需要政府的幫助,因為這是一個非常困難的問題。"關(guān)于如何起訴機器人,有一些討論,不過我不太明白這是怎么運作的,因為機器人沒有銀行賬戶和錢。無人駕駛汽車的發(fā)開涉及很多利益相關(guān)者,我真的沒有答案。"但保險公司必須要找到答案,因為當(dāng)事情發(fā)生時,他們必須知道誰是罪魁禍?zhǔn)住?這是一個大問題。
目前還沒有多少人了解在道路上使用無人駕駛汽車的意義,而這是一項需要在發(fā)展過程中就開展教育的技術(shù)。培根說:"我認(rèn)為整個社會都需要接受這種教育,這樣他們就能理解人工智能是什么,理解它對生活的影響。只有在弄清楚了這一系列事情之后,他們才有資格做出自己的判斷。"最重要的是,培根說,"信任將是關(guān)鍵。"她說。"推出無人駕駛汽車的人不會賣任何東西,除非人們真正信任這項技術(shù)。"
更多資訊請關(guān)注汽車制造頻道