人工智能(AI)往往被視為一種暗箱實踐,即人們并不關注技術本身的運作方式,只強調(diào)其能夠提供看似正確的結(jié)果。在某些情況下,這種效果就已經(jīng)可以滿足需求,因為大多數(shù)時候我們都更關注結(jié)果,而非結(jié)果的具體實現(xiàn)方式。
遺憾的是,將AI視為暗箱過程會產(chǎn)生信任與可靠性等問題。從純技術的角度來看,這也導致我們難以分析或解決AI模型中存在的問題。
在本文中,我們將共同了解其中的部分潛在問題以及幾種解決方案思路。
AI是什么?
不少企業(yè)已經(jīng)將人工智能(AI)元素納入自家產(chǎn)品。雖然有些“AI”表述只是虛假的營銷策略,但也確實有不少產(chǎn)品開始使用AI及機器學習(ML)技術實現(xiàn)自我提升。
簡而言之,AI是指一切能夠表現(xiàn)出智能行為的計算機系統(tǒng)。在本文的語境下,智能代表著計算機在學習、理解或者概念總結(jié)等層面的飛躍式進步。
當前,AI技術最常見的實現(xiàn)形式為機器學習,其中由計算機算法學習并識別數(shù)據(jù)中的模式。機器學習大致分為三類:
監(jiān)督學習:即使用已知數(shù)據(jù)進行模型訓練。這有點像給孩子們看最簡單的看圖識字教材。這類ML也是大家最常接觸到的實現(xiàn)形式,但其有著一個致命缺點:只有具備大量可信且經(jīng)過正確標記的訓練數(shù)據(jù),才能建立起相關模型。
無監(jiān)督學習:模型自行在數(shù)據(jù)中查找模式。手機導航軟件使用的就是這種學習方式,特別適合我們對數(shù)據(jù)一無所知的情況。目前業(yè)界往往使用無監(jiān)督學習從數(shù)據(jù)中識別出可能具有現(xiàn)實意義的重要聚類。
強化學習:模型在每次正確執(zhí)行時都會得到獎勵。因為這是一種典型的“實驗試錯”學習方法。如果我們初期只有少量數(shù)據(jù),那么這種ML方法將表現(xiàn)得尤為強大。它的出現(xiàn),直接令持續(xù)學習模型成為可能,即模型在接觸到新數(shù)據(jù)后會不斷適應及發(fā)展,從而保證自身永不過時。
但這些方法都面臨著同一個問題,我們無法理解學習后生成的最終模型。換言之,人工智能無法實現(xiàn)人性化。
信任問題
暗箱式AI系統(tǒng)大多屬于由機器經(jīng)過自學過程建立起模型。但由于無法理解系統(tǒng)得出結(jié)論的過程,我們就很難理解模型給出特定結(jié)論的理由,或者對該結(jié)論缺乏信心。我們無法詢問模型為什么會這么判斷,只能拿結(jié)果跟自己的期望進行比較。
如果不理解AI模型的起效原理,我們又怎么能相信模型會永遠正確?
結(jié)果就是,這種不可理解性同無數(shù)反烏托邦科幻作品映射起來,讓AI成了恐怖神秘的代名詞。更糟糕的是,不少AI模型確實表現(xiàn)出嚴重的偏差,這也令信任危機被進一步激化。
偏差或者說偏見,一直植根于人類的思想意識當中,現(xiàn)在它也開始成為AI技術無法回避的大難題。因為系統(tǒng)只能從過往的情況中學習經(jīng)驗,而這些可能并不足以指導模型做出面向未來的正確選擇。
以AI模型在犯罪預測中的應用為例,這些模型會使用以往犯罪統(tǒng)計數(shù)據(jù)來確定哪些地區(qū)的犯罪率比較高。執(zhí)法部門則調(diào)整巡邏路線以向這些地區(qū)集中警力資源。但人們普遍質(zhì)疑,使用這類數(shù)據(jù)本身就是在加強偏見,或者潛在地將相關性混淆為因果性。
例如,隨著新冠疫情的肆虐,美國各大主要城市的暴力犯罪率開始顯著下降;但在某些司法管轄區(qū)內(nèi),汽車盜竊及其他劫掠案件卻有所增加。普通人可能會將這些變化與全國范圍內(nèi)的社交隔離合理聯(lián)系起來,但預測性警務模型卻有可能錯誤地將犯罪數(shù)量及逮捕率的降低解釋為穩(wěn)定性與治安水平的提升。
目前,人工智能中存在多種形式的偏見。以人臉識別軟件為例,研究表明包含“人口統(tǒng)計學偏見”的算法會根據(jù)對象的年齡、性別或種族做出準確率波動極大的判斷。
有時,數(shù)據(jù)科學家在執(zhí)行特征工程以嘗試清洗源數(shù)據(jù)時,同樣會引發(fā)偏差/偏見問題,導致其中某些微妙但卻極為重要的特征意外丟失。
影響最大的偏見甚至可能引發(fā)社會層面的問題。例如,廣告算法會根據(jù)人口統(tǒng)計數(shù)據(jù)定期投放廣告,從而將對于年齡、性別、種族、宗教或社會經(jīng)濟等因素的偏見永久留存在模型之內(nèi)。AI技術在招聘應用中也暴露出了類似的缺陷。
當然,這一切都源自人類自己引發(fā)的原始偏見。但是,我們該如何在AI模型中發(fā)現(xiàn)這些偏見并將其清除出去?
可解釋AI
為了增加對AI系統(tǒng)的信任度,AI研究人員正在探索構建可解釋AI(XAI)的可能性,希望借此實現(xiàn)AI方案的人性化。
XAI能夠避免我們在暗箱模型中難以識別的種種問題。例如,2017年研究人員的報告稱發(fā)現(xiàn)了一項AI作弊問題。該AI模型在訓練之后能夠成功識別出馬匹的圖像,相當于對經(jīng)典狗/貓識別能力的變體。但事實證明,AI學會的實際上是識別與馬匹圖片相關的特定版權標注。
為了實現(xiàn)XAI,我們需要觀察并理解模型內(nèi)部的整個運作過程。這項探索本身已經(jīng)構成了理論計算機科學中的一大分支,其困難程度可能也遠超大家的想象。
比較簡單的機器學習算法當然相對易于解釋,但神經(jīng)網(wǎng)絡則復雜得多。即使是包括分層相關性傳播(LRP)在內(nèi)的各類最新技術,也只能顯示哪些輸入對于決策制定更為重要。因此,研究人員的注意力開始轉(zhuǎn)向本地可解釋性目標,希望借此對模型做出的某些特定預測做出解釋。
AI模型為什么難以理解?
目前,大多數(shù)ML模型基于人工神經(jīng)元。人工神經(jīng)元(或稱感知器)使用傳遞函數(shù)對一個或多個加權輸入進行組合。以此為基礎,激活函數(shù)將使用閾值以決定是否觸發(fā)。這種方法,實際上限制了神經(jīng)元在人腦中的工作方式。
作為一種常見的ML模型,神經(jīng)網(wǎng)絡由多層人工神經(jīng)元組成。輸入層與重要特征擁有相同的輸入數(shù)量,同時輔以大量隱藏層。最后,輸出層也將擁有與重要特征相同的輸出數(shù)量。
我們以最簡單的應用場景為例,考慮ML模型如果根據(jù)今天是星期幾及是否屬于假期來預測您的起床時間。
在隨機分配權重的情況下,模型會生成錯誤的結(jié)果,即我們周三需要在上午9點起床。
我們當然不可能以手動方式為每個人工神經(jīng)元設置確切的權重。相反,我們需要使用所謂反向傳播過程,算法將在模型中反向運作,借此調(diào)整網(wǎng)絡的權重與偏差,力求將預測輸出與預期輸出間的差異控制在最小范圍。在調(diào)整之后,結(jié)果是周三早上應該7點起床。
信任與道德
技術信任問題正變得愈發(fā)重要,畢竟我們已經(jīng)在嘗試使用AI診斷癌癥、識別人群中的通緝犯并做出雇用/解雇決策。如果無法實現(xiàn)AI人性化,又怎么能要求人們向其給予信任呢?如果沒有這種信任,以符合道德的方式加以使用更是癡人說夢。
對于這個重要問題,歐盟已經(jīng)通過一套關于可信AI的道德準則,針對AI是否符合道德及具備可信度設置了七項測試:
人類代理與監(jiān)督:AI系統(tǒng)不可在人類不具備最終決定權的情況下做出決策。
技術的健壯性與安全性:在使用AI技術之前,必須明確其是否可靠,包括具備故障保護能力且不會被黑客入侵。
隱私與數(shù)據(jù)治理:AI模型往往需要處理個人數(shù)據(jù),例如通過醫(yī)學造影圖像診斷疾病。這意味著數(shù)據(jù)隱私將非常重要。
透明度:AI模型應該具備人類可解釋的基本屬性。
多樣性、非歧視性與公平性:主要涉及我們前文討論過的偏見問題。
環(huán)境與社會福祉:在這里,準則制定者們希望消除人們對于AI技術發(fā)展造成反烏托邦式未來的擔憂。
問責制度:必須建立起獨立的監(jiān)督或監(jiān)控制度。
當然,指南也強調(diào),必須以合法方式使用AI技術。
AI的人性化之路
本文關注的重點只有一個:人工智能該如何實現(xiàn)人性化,從而切實建立起自身可信度。
人類很難相信自己無法理解的機器,并最終阻礙了我們從這一創(chuàng)新技術中切實受益。
這個問題在軟件測試自動化領域表現(xiàn)得尤其明顯,因為此類系統(tǒng)的意義就是在應用方案發(fā)布之前找到其中存在的潛在問題。如果不了解具體流程,我們要如何確定測試結(jié)果的正確性?如果做出了錯誤決定,該怎么辦?如果AI系統(tǒng)遺漏了某些問題,我們該如何發(fā)現(xiàn)或者做出響應?
為了解決這個難題,必須將ML算法與測試體系結(jié)合起來,實現(xiàn)決策制定與相應數(shù)據(jù)間關聯(lián)關系的可視化。只有這樣,我們才能徹底告別暗箱式AI。這是一項踏踏實實的工作,沒有奇跡、沒有魔法,可以依賴的只有不懈努力與對機器學習美好未來的憧憬。
責編AJX
-
數(shù)據(jù)
+關注
關注
8文章
7250瀏覽量
91517 -
AI
+關注
關注
88文章
34778瀏覽量
277031 -
人工智能
+關注
關注
1805文章
48899瀏覽量
247927
發(fā)布評論請先 登錄
傳感器仿真模型的可信度評估方案

IEEE會員于CES展會上分享人工智能見解
生成式人工智能模型的安全可信評測

評論