隨著歐盟邁向?qū)嵤┤斯ぶ悄芊ò福斯ぶ悄軅惱淼赖聠栴}(如偏見、透明度和可解釋性)正變得越來越重要,該法案將有效規(guī)范人工智能和機器學習技術(shù)在所有行業(yè)的使用。人工智能專家表示,這是人工智能用戶熟悉道德概念的好時機。
歐洲最新版的《人工智能法案》于去年推出,目前正在迅速通過審查過程,最早可能在 2023 年實施。雖然該法律仍在制定中,但歐盟委員會似乎已準備好大步監(jiān)管人工智能。
例如,法律將對人工智能系統(tǒng)的使用設(shè)定新要求,并完全禁止某些用例。所謂的高風險人工智能系統(tǒng),例如用于自動駕駛汽車的人工智能系統(tǒng)以及教育、移民和就業(yè)的決策支持系統(tǒng),將要求用戶對人工智能應(yīng)用進行影響評估和審計。某些 AI 用例將在數(shù)據(jù)庫中進行密切跟蹤,而其他用例則需要外部審計員簽字才能使用。
總部位于賓夕法尼亞州紐敦的軟件工程公司 EPAM Systems 的數(shù)據(jù)分析咨詢主管 Nick Carrel 表示,作為 MLOps 參與或數(shù)據(jù)科學咨詢參與的一部分,對不可解釋性和可解釋性的需求很大。他說,歐盟的人工智能法案也在推動企業(yè)尋求關(guān)于道德人工智能的洞察力和答案。
“現(xiàn)在對所謂的 ML Ops 有很多需求,這是一門操作機器學習模型的科學。我們非常認為道德人工智能是這一過程的關(guān)鍵基礎(chǔ)之一,” Carrel 說?!拔覀冞€有來自客戶的更多要求……因為他們了解了即將在今年年底圍繞人工智能系統(tǒng)生效的歐盟立法,他們希望做好準備。”
不可解釋性和可解釋性是獨立但相關(guān)的概念。模型的可解釋性是指人類能夠理解和預(yù)測模型將做出何種決策的程度,而可解釋性是指準確描述模型實際工作方式的能力。EPAM Systems 數(shù)據(jù)科學和機器學習部門的負責人 Andrey Derevyanka 說,你可以有一個沒有另一個。
“想象一下,你正在做一些實驗,也許是一些混合兩種液體的化學實驗。這個實驗是可以解釋的,因為,你看到你在這里做了什么。你拿了一個物品,加上另一個物品,我們得到了結(jié)果,”Derevyanka 表示?!暗屵@個實驗可以解釋,你需要知道化學反應(yīng),你需要知道反應(yīng)是如何產(chǎn)生的,是如何進行的,你需要知道這個過程的內(nèi)部細節(jié)。”
Derevyanka 說,特別是深度學習模型可以解釋但有不能說明具體情況。“你有一個黑盒子,它以某種方式運作,但你知道你不知道里面是什么,”他說?!暗憧梢越忉專喝绻憬o出這個輸入,你就會得到這個輸出?!?/p>
消除偏見
在道德 AI 方面,偏見是另一個重要主題。EPAM Systems 數(shù)據(jù)和人工智能實踐主管 Umit Cakmak 表示,不可能完全消除數(shù)據(jù)中的偏見,但企業(yè)組織努力消除人工智能模型中的偏見很重要。
“這些事情必須隨著時間的推移進行分析,”Cakmak 說?!斑@是一個過程,因為偏見已經(jīng)融入歷史數(shù)據(jù)。沒有辦法從數(shù)據(jù)中清除偏差。因此,作為一家企業(yè),您必須設(shè)置一些特定的流程,以便您的決策隨著時間的推移變得更好,這將隨著時間的推移提高您的數(shù)據(jù)質(zhì)量,因此隨著時間的推移,您的偏見會越來越少?!?/p>
可解釋性對于讓利益相關(guān)者(包括內(nèi)部或外部審計師,以及將聲譽置于危險境地的客戶和高管)相信 AI 模型不會根據(jù)有偏見的數(shù)據(jù)做出錯誤的決策非常重要。
Cakmak 說,文獻中有許多數(shù)據(jù)偏見泄漏到自動決策系統(tǒng)中的例子,包括種族偏見出現(xiàn)在用于評估員工績效或從簡歷中挑選求職者的模型中。能夠展示模型如何得出結(jié)論對于展示已采取措施消除模型中的數(shù)據(jù)偏差非常重要。
Cakmak 回憶起缺乏可解釋性如何導致一家醫(yī)療保健公司放棄為癌癥診斷開發(fā)的人工智能系統(tǒng)?!叭斯ぶ悄茉谀撤N程度上發(fā)揮了作用,但隨后該項目被取消,因為他們無法建立對算法的信任和信心,”他說。“如果你無法解釋為什么會出現(xiàn)這種結(jié)果,那么你就無法繼續(xù)治療?!?/p>
EPAM Systems 幫助企業(yè)以可信的方式實施人工智能。該公司通常會遵循一套特定的指導方針,從如何收集數(shù)據(jù)開始,到如何準備機器學習模型,再到如何驗證和解釋模型。Cakmak 說,確保 AI 團隊成功通過并記錄這些檢查或“質(zhì)量門”是道德 AI 的一個重要元素。
道德與人工智能法案
波士頓咨詢集團全球 GAMMA 首席人工智能道德官 Steven Mills 表示,規(guī)模最大、運營最完善的企業(yè)已經(jīng)意識到需要負責任的人工智能。
然而,隨著人工智能法案越來越接近成為法律,我們將看到世界各地更多的公司加速他們負責任的人工智能項目,以確保他們不會違反不斷變化的監(jiān)管環(huán)境和新的期望。
“有很多公司已經(jīng)開始實施人工智能,并且意識到我們沒有像我們想要的那樣對所有潛在的意外后果抱有希望,我們需要盡快解決這個問題,” Mills說. “這是最重要的。人們并不覺得他們只是隨意的以及他們?nèi)绾螒?yīng)用它?!?/p>
以合乎道德的方式實施人工智能的壓力來自組織的高層。 Mills說,在某些情況下,它來自外部投資者,他們不希望自己的投資風險因以不好的方式使用人工智能而受到損害。
他說:“我們看到了一種趨勢,即投資者,無論是上市公司還是風險基金,都希望確保以負責任的方式構(gòu)建人工智能?!?nbsp;“這可能并不明顯。這對每個人來說可能并不明顯。但在幕后,這些風險投資公司中的一些人正在考慮他們在哪里投入資金以確保這些初創(chuàng)公司以正確的方式做事?!?/p>
Carrel 表示,雖然目前《人工智能法案》的細節(jié)也很模糊,但該法律有可能明確人工智能的使用,這將使公司和消費者都受益。
“我的第一反應(yīng)是這將是非常嚴格的,”Carrel 說,他在加入 EPAM Systems 之前在金融服務(wù)行業(yè)實施了機器學習模型?!岸嗄陙?,我一直在試圖突破金融服務(wù)決策的界限,突然間有一項立法出臺,它會破壞我們所做的工作。
但他越是關(guān)注未決法律,就越喜歡他所看到的。
“我認為這也將逐漸增加公眾對不同行業(yè)使用人工智能的信心,” Carrel 說?!傲⒎ㄒ?guī)定你必須在歐盟注冊高風險人工智能系統(tǒng),這意味著你知道在某處將有一個非常清晰的清單,列出正在使用的每一個人工智能高風險系統(tǒng)。這為審計人員提供了強大的權(quán)力,這意味著頑皮的男孩和壞玩家將逐漸受到懲罰,希望隨著時間的推移,我們會為那些想要將人工智能和機器學習用于更好的事業(yè)的人留下最佳實踐——負責任的方式?!?/p>