清研智庫:透明度“悖論”困擾人工智能發展
近年來,由于許多充分的理由,學術界和企業界專業人士要求提高人工智能(AI)模型內部工作的透明度。
在《哈佛商業評論》的一篇文章中,Immuta的首席法律官安德魯·伯特指出,透明性可以幫助緩解某些問題,例如公平、歧視和信任,例如,新的Apple信用卡被指控存在性別歧視貸款模式,而亞馬遜則在發現AI工具歧視女性后,取消了它的雇傭。
同時,越來越明顯的是,AI信息的披露具有自身的風險:信息披露越大,人工智能就越容易受到攻擊,而信息披露越多,企業就越容易受到訴訟或監管行動的影響。
“我們稱它為AI透明悖論:雖然生成有關AI的更多信息可以帶來真正的好處,但也可能帶來新的風險。為了解決這一矛盾,組織將需要仔細考慮他們如何處理AI風險,生成的有關這些風險的信息,以及如何共享和保護這些信息,”伯特說。
最近的一些研究表明了這些趨勢。哈佛大學和加州大學歐文分校的一篇研究論文解釋了LIME和SHAP(用于解釋所謂暗箱算法的兩種流行技術)是如何被入侵的。
為了說明LIME的強大功能,2016年的一篇宣布使用該工具的文章解釋了一個無法理解的圖像分類器如何在一幅圖像中識別不同的物體:一把電吉他通過琴橋和指板零件識別,而拉布拉多獵犬則通過狗臉右側的特定面部特征識別。
LIME以及AI的一般可解釋性動作,被稱贊為能夠使不透明算法更加透明的進步。實際上,AI的好處已被院士和技術專家廣泛接受。現在,LIME和SHAP中進一步受到攻擊的可能性凸顯了一個被忽視的缺點:如研究所示,可以故意操縱解釋,導致不僅對模型而且對解釋失去信心。
這項研究不是唯一一項證明AI透明化潛在危險的研究。最近,研究人員Reza Shokri和她的同事展示了如何暴露有關機器學習算法的信息,可以使它們更容易受到攻擊。同時,加利福尼亞大學伯克利分校的研究人員已經證明,完整的算法只有根據它們的解釋才能被竊取。
伯特表示,因為安全和隱私研究人員將更多精力放在人工智能上,這些研究和許多其他研究得出了相同的結論:模型制作者揭示的算法越多,惡意參與者的損失就越大。這意味著披露有關模型內部工作的信息實際上會降低其安全性或使公司承擔更大的責任。總而言之,所有數據都有風險。
伯特指出,所有這一切的好處是,組織長期以來一直面臨隱私、安全和其他方面面臨透明度的悖論。今天,他們只需要更新其AI方法即可。“首先,試圖使用人工智能的公司必須認識到透明度帶來的成本。當然,這并不意味著它不值得實現,它只是帶來了必須充分理解的缺點。他指出,這些成本必須納入一個更廣泛的風險模型中,該模型控制如何與可解釋的模型進行交互以及在多大程度上該模型的信息可供他人使用。
伯特說各組織還必須認識到,在人工智能領域,安全性正在成為一個越來越令人擔憂的問題。隨著AI被更廣泛地采用,肯定會發現更多的漏洞和安全漏洞。實際上,安全性可能是采用AI的最大長期障礙之一。
最后,伯特也指出,在創建和部署AI時,盡早并經常與律師接觸非常重要。確保法律部門的參與能夠促進一個開放和合法的環境。
文章鏈接:https://analyticsindiamag.com/ai-transparency-lets-talk-about-ai-accountability/
清研智庫李梓涵編譯。