人工智能 (AI) 正在改變每個行業(yè),超過三分之一的組織現(xiàn)在廣泛或有限地生產(chǎn)人工智能。但與任何技術(shù)一樣,人工智能也伴隨著巨大的經(jīng)濟(jì)和社會風(fēng)險,例如不道德偏見的擴(kuò)散、責(zé)任的淡化和數(shù)據(jù)隱私的侵犯。
為了避免這些風(fēng)險并負(fù)責(zé)任地部署人工智能,監(jiān)管政策和行業(yè)都有責(zé)任為圍繞該技術(shù)工作的從業(yè)者和用戶制定流程和標(biāo)準(zhǔn)。為此,道德 AI 和 ML 研究所的團(tuán)隊匯總了負(fù)責(zé)任的 AI 原則,以授權(quán)從業(yè)者確保這些原則通過設(shè)計嵌入到圍繞生產(chǎn) AI 和機(jī)器學(xué)習(xí)系統(tǒng)的基礎(chǔ)設(shè)施和流程中。
本文對八項原則中的四項進(jìn)行了細(xì)分:偏見評估、可解釋性、人工增強(qiáng)和可重復(fù)性。
偏見評估
在某種意義上,人工智能模型帶有固有的偏見,因為它們被設(shè)計用來區(qū)別對待相關(guān)的答案。這是因為智能的核心是識別我們在世界上看到的模式并對其采取行動的能力。在開發(fā)人工智能模型時,我們試圖復(fù)制這種準(zhǔn)確的能力,并鼓勵人工智能在輸入的數(shù)據(jù)中發(fā)現(xiàn)模式,并產(chǎn)生相應(yīng)的偏見。例如,一個研究蛋白質(zhì)化學(xué)數(shù)據(jù)的模型會天生地對那些結(jié)構(gòu)可以以某種方式折疊的蛋白質(zhì)產(chǎn)生相關(guān)的偏見,從而發(fā)現(xiàn)哪些蛋白質(zhì)在醫(yī)學(xué)的相關(guān)用例中有用。
因此,我們在公開反對人工智能偏見時應(yīng)該小心謹(jǐn)慎。圍繞人工智能偏見的話題,我們通常指的是實際上不受歡迎或不合理的偏見,例如基于受保護(hù)特征(如種族、性別或國籍)的偏見。
但為什么人工智能模型會產(chǎn)生不道德的偏見呢?答案取決于它輸入的數(shù)據(jù)。模型最終會反映出它們在部署之前使用的訓(xùn)練數(shù)據(jù)中存在的偏見,所以如果訓(xùn)練數(shù)據(jù)不具有代表性或合并了預(yù)先存在的偏差,那么生成的模型最終將反映它們。就像他們在計算機(jī)科學(xué)里說的“無用輸入無用輸出”。
團(tuán)隊還必須創(chuàng)建一系列流程和程序,以正確識別圍繞 AI 訓(xùn)練數(shù)據(jù)、模型本身的訓(xùn)練和評估以及模型本身運(yùn)營生命周期的有效性的任何不良偏差。如果您正在部署 AI,則值得關(guān)注的一個很好的例子是道德 AI 和機(jī)器學(xué)習(xí)研究所的eXplainable AI 框架,接下來我們將對此進(jìn)行更詳細(xì)的介紹
可解釋性
為了確保AI模型符合目的,相關(guān)領(lǐng)域?qū)<业膮⑴c也很重要。這些人可以幫助團(tuán)隊確保AI模型使用正確的性能指標(biāo),而不僅僅是統(tǒng)計數(shù)據(jù)和準(zhǔn)確性驅(qū)動的性能指標(biāo)。值得強(qiáng)調(diào)的是,領(lǐng)域?qū)<也粌H包括技術(shù)專家,還包括與用例相關(guān)的社會科學(xué)和人文學(xué)科專家。
不過,要使其發(fā)揮作用,確保模型的預(yù)測能夠由相關(guān)領(lǐng)域?qū)<医忉屢彩呛苤匾?。然而,先進(jìn)的人工智能模型通常使用最先進(jìn)的深度學(xué)習(xí)技術(shù),這可能不能簡單地解釋為什么會做出特定的預(yù)測。
為了克服這一困難,組織傾向于利用多種技術(shù)和工具來實現(xiàn)機(jī)器學(xué)習(xí)的可解釋性,這些技術(shù)和工具可用于破譯 AI 模型的預(yù)測??梢栽诖颂幉榭催@些工具和技術(shù)的完整列表。
在可解釋性之后是人工智能模型的操作化。這是由相關(guān)利益相關(guān)者進(jìn)行調(diào)查和監(jiān)控的時候。此類 AI 模型的生命周期只有在正確部署到生產(chǎn)環(huán)境后才開始。一旦啟動并運(yùn)行,模型才會因為外部壓力而遭受性能下降,無論是概念漂移還是模型運(yùn)行環(huán)境的變化。
人類增強(qiáng)
在部署AI時,首先評估原始非自動化流程的當(dāng)前需求至關(guān)重要,包括概述不良結(jié)果的風(fēng)險。這將允許對過程有更深入的理解,并有助于確定哪些領(lǐng)域可能需要人工干預(yù)來降低風(fēng)險。
例如,向職業(yè)運(yùn)動員推薦膳食計劃的人工智能的高影響風(fēng)險因素遠(yuǎn)少于為銀行自動化后端貸款審批流程的人工智能模型,這表明對前者而言,人工干預(yù)的必要性要小于后者。當(dāng)團(tuán)隊確定AI工作流的潛在風(fēng)險點(diǎn)時,他們可以考慮實施“ 人機(jī)回圈 ”的審查過程(HITL)。
HITL確保在流程自動化之后,仍然存在各種接觸點(diǎn),其中需要人工干預(yù)來檢查結(jié)果,從而更容易在必要時提供糾正或撤銷決策。這個過程可以包括技術(shù)專家和行業(yè)專家團(tuán)隊(例如,銀行貸款的承銷商,或膳食計劃的營養(yǎng)師),以評估人工智能模型做出的決定,并確保它們遵守最佳實踐。
可重復(fù)性
可重復(fù)性是指團(tuán)隊在數(shù)據(jù)點(diǎn)上重復(fù)運(yùn)行算法并每次都得到相同結(jié)果的能力。這是負(fù)責(zé)任的 AI 的核心組成部分,因為它對于確保模型之前的預(yù)測在稍后階段重新運(yùn)行時重新發(fā)布至關(guān)重要
自然地,再現(xiàn)性很難實現(xiàn),這主要是由于人工智能系統(tǒng)內(nèi)在的困難。這是因為 AI 模型的輸出可能會因各種背景情況而異,例如:
用于計算 AI 干擾的代碼
從使用的數(shù)據(jù)中學(xué)習(xí)到的權(quán)重
運(yùn)行代碼的環(huán)境、基礎(chǔ)架構(gòu)和配置
提供給模型的輸入和輸入結(jié)構(gòu)
這是一個復(fù)雜的問題,尤其是當(dāng)一個 AI 模型被大規(guī)模部署并需要考慮無數(shù)其他工具和框架時。為此,團(tuán)隊需要開發(fā)穩(wěn)健的實踐來幫助控制上述情況,并實施工具來幫助提高可重復(fù)性。首先,可以在此列表中找到許多。
關(guān)鍵要點(diǎn)
借助上述高級原則,行業(yè)可以確保遵循最佳實踐來負(fù)責(zé)任地使用人工智能。采用此類原則對于確保人工智能充分發(fā)揮其經(jīng)濟(jì)潛力至關(guān)重要,并且不會削弱弱勢群體的權(quán)力、強(qiáng)化不道德的偏見或削弱問責(zé)制。相反,它可以成為我們可以用來推動增長、生產(chǎn)力、效率、創(chuàng)新和為所有人帶來更大利益的技術(shù)