機器學習研究者們已經(jīng)開始探索在AI中誘發(fā)“選擇性失憶”的方法,其目標是在不影響模型性能的前提下,從機器學習中刪除特定人員或點的敏感數(shù)據(jù)。
目前,機器學習被視作最具智能特征的研究領域,但科學家提出了新的問題:機器會學習,但它會遺忘嗎?
機器學習研究者們已經(jīng)開始探索在AI中誘發(fā)“選擇性失憶”的方法,其目標是在不影響模型性能的前提下,從機器學習中刪除特定人員或點的敏感數(shù)據(jù)。
如果未來能夠實現(xiàn),那么這一概念將幫助人們更好地控制數(shù)據(jù)。
機器學習的“遺忘”,對于有需求的用戶,也就是那些對他們在網(wǎng)上分享的內(nèi)容感到后悔的人來說,其實很直觀。
但從技術層面來講,消除特定數(shù)據(jù)點影響的傳統(tǒng)方法,是“從零開始”重建系統(tǒng),這是一項代價可能相當高昂的工作,令企業(yè)幾乎難以承受。
具體來說,某些地區(qū)的用戶如果他們對披露的內(nèi)容改變了主意,其實是有權要求公司刪除他們的數(shù)據(jù)的。但徹底抹除這件事很難實現(xiàn),因為一旦經(jīng)過訓練,機器學習系統(tǒng)就不會輕易改變,甚至就連訓練者們自己,也不清楚系統(tǒng)是如何掌握這些能力的,因為他們并不能完全理解自己調(diào)試或訓練出的算法。
人們對人工智能系統(tǒng)侵犯個人隱私的擔憂日益嚴重。如何讓AI學會“選擇性失憶”,從而可以在無需“從零開始”對系統(tǒng)進行再培訓的情況下刪除敏感數(shù)據(jù),成為時下研究的熱點問題。
賓夕法尼亞大學機器學習教授亞倫·羅斯表示,他們目前進行的研究就是希望能找到一些“中間地帶”?;蛟S在不久的將來,有望找出一條既可以控制數(shù)據(jù)也可以保護由數(shù)據(jù)產(chǎn)生的價值的發(fā)展道路。