隨著人工智能變得越來越強(qiáng)大,人們對它最終在勞動力市場中席卷而來的不滿情緒越來越大,據(jù)報(bào)告預(yù)測,機(jī)器人將承擔(dān)多達(dá)一半的工作,現(xiàn)在越來越多的評論家認(rèn)為,人工智能不是完全消除工作,更有可能時增加工作。
南加州大學(xué)的一項(xiàng)新研究表明了這種結(jié)合的強(qiáng)大力量。這項(xiàng)研究探索了人類和AI如何有效地協(xié)作,尤其著眼于預(yù)測專業(yè)。
作者強(qiáng)調(diào)人與機(jī)器之間的協(xié)作如何越來越普遍,尤其是在自動駕駛汽車等領(lǐng)域。
多年來,我們已經(jīng)逐漸適應(yīng)汽車的自動化,包括自動變速箱、巡航控制、防抱死制動等。
目前,由SAGE領(lǐng)導(dǎo)的合作已進(jìn)入情報(bào)高級研究計(jì)劃局(IARPA)混合預(yù)測競賽(HFC),以使其與周圍一些最佳的預(yù)測機(jī)構(gòu)進(jìn)行適當(dāng)?shù)臏y試。
SAGE旨在開發(fā)一種系統(tǒng),該系統(tǒng)可以利用人和機(jī)器的能力自行改善兩種類型的準(zhǔn)確性。這次混合預(yù)測競賽(HFC)為研究人們?nèi)绾闻c計(jì)算機(jī)模型互動提供了獨(dú)特的環(huán)境。
在競賽中,參與者對開放數(shù)周的問題做出了貢獻(xiàn),數(shù)百名參與者相互競爭。一些參與者接受了AI的預(yù)測,而其他參與者則沒有,每個參與者都可以自由選擇是否接受AI的建議。
人和機(jī)器一起工作比單獨(dú)工作要有效得多,實(shí)際上,AI人工團(tuán)隊(duì)非常輕松地?fù)魯×藢<翌A(yù)測員。
在HFC誕生之初,我們的一些隊(duì)友認(rèn)為機(jī)器模型將勝過人類預(yù)報(bào)員,這已成定局。
該經(jīng)驗(yàn)得出了一些有趣的發(fā)現(xiàn),其中最重要的一點(diǎn)是,人類參與者沒有大量使用統(tǒng)計(jì)模型,研究人員認(rèn)為這類似于我們經(jīng)常也傾向于忽略其他人的建議。
在許多情況下,預(yù)測員會過度依賴模型。相反,我們發(fā)現(xiàn)人們過度依賴他們的個人信息。當(dāng)模型預(yù)測與他們先前的信念(稱為確認(rèn)偏差)不一致時,預(yù)測人員會輕易地拒絕該模型預(yù)測。
有趣的是,即使人們被明確告知這樣做對他們的事業(yè)非常有幫助,人們似乎仍然不愿意聽取他們的AI顧問的意見。因此,盡管使用AI確實(shí)可以改善結(jié)果,但不應(yīng)將其視為容易賣出或既成事實(shí),即會出現(xiàn)改進(jìn)。
總體而言,將統(tǒng)計(jì)模型添加到預(yù)測系統(tǒng)中確實(shí)提高了準(zhǔn)確性。但是,人類將很好地或根本不會使用這些工具,這并不是一個定局。
這對我們將基于AI的工具集成到工作場所的方式具有明顯的影響。結(jié)果提醒我們,如果要說服人們與團(tuán)隊(duì)合作并不容易,僅“簡單地”開發(fā)出能夠很好地發(fā)揮作用的工具是不夠的。如果我們始終不理會它的建議,那么有一個衛(wèi)星導(dǎo)航系統(tǒng)為我們提供最佳路線建議是沒有用的。
為了使人與機(jī)器完美協(xié)作,將需要高度信任該機(jī)器。這樣,與新生的人際關(guān)系并沒有什么不同,在人際關(guān)系中,我們常常需要一定程度的經(jīng)驗(yàn),才能完全信任人及其能力。
研究人員認(rèn)為這一發(fā)現(xiàn),對設(shè)計(jì)基于AI的工具的工程師以及最終承擔(dān)與之協(xié)作的最終用戶都具有重大意義。
普通人應(yīng)該學(xué)會更加謹(jǐn)慎地與新技術(shù)互動。更好的預(yù)測者能夠確定何時信任模型以及何時信任自己的研究,而平均預(yù)測者則無法。