【導(dǎo)語(yǔ)】模型的可解釋性是大多數(shù)機(jī)器學(xué)習(xí)系統(tǒng)都需要的一種能力,即能向用戶解釋模型能做出這些預(yù)測(cè)的原因。在本篇文章中,作者將與大家探討一些可用于解釋機(jī)器學(xué)習(xí)模型的不同技術(shù),并且重點(diǎn)介紹兩種提供全局和局部解釋、且與模型本身無(wú)關(guān)可解釋性技術(shù)。這些技術(shù)可以應(yīng)用于任何機(jī)器學(xué)習(xí)算法,并通過(guò)分析機(jī)器學(xué)習(xí)模型的響應(yīng)函數(shù)來(lái)實(shí)現(xiàn)可解釋性。
前言
在選擇一個(gè)合適的機(jī)器學(xué)習(xí)模型時(shí),通常需要我們權(quán)衡模型準(zhǔn)確性與可解釋性之間的關(guān)系:
黑盒模型 (black-box):諸如神經(jīng)網(wǎng)絡(luò)、梯度增強(qiáng)模型或復(fù)雜的集成模型此類的黑盒模型 (black-box model) 通常具有很高的準(zhǔn)確性。然而,這些模型的內(nèi)部工作機(jī)制卻難以理解,也無(wú)法估計(jì)每個(gè)特征對(duì)模型預(yù)測(cè)結(jié)果的重要性,更不能理解不同特征之間的相互作用關(guān)系。
白盒模型(white-box):另一方面,像線性回歸和決策樹(shù)之類的簡(jiǎn)單模型的預(yù)測(cè)能力通常是有限的,且無(wú)法對(duì)數(shù)據(jù)集內(nèi)在的復(fù)雜性進(jìn)行建模 (如特征交互)。然而,這類簡(jiǎn)單模型通常有更好的可解釋性,內(nèi)部的工作原理也更容易解釋。
模型準(zhǔn)確性與可解釋性關(guān)系之間的權(quán)衡取決于一個(gè)重要的假設(shè):“可解釋性是模型的一個(gè)固有屬性”。通過(guò)正確的可解釋性技術(shù),任何機(jī)器學(xué)習(xí)模型內(nèi)部工作機(jī)理都能夠得以解釋,盡管這需要付出一些復(fù)雜性和計(jì)算成本的代價(jià)。
模型屬性
機(jī)器學(xué)習(xí)模型的可解釋程度通常與響應(yīng)函數(shù) (response function) 的兩個(gè)屬性相關(guān)。模型的響應(yīng)函數(shù) f(x) 定義模型的輸入 (特征x) 和輸出 (目標(biāo)函數(shù) f(x)) 之間的輸入-輸出對(duì)關(guān)系,而這主要取決于機(jī)器學(xué)習(xí)模型,該函數(shù)具有以下特征:
線性:在線性響應(yīng)函數(shù)中,特征與目標(biāo)之間呈線性關(guān)系。如果一個(gè)特征線性變化,那么期望中目標(biāo)將以相似的速率線性變化。
單調(diào)性:在單調(diào)響應(yīng)函數(shù)中,特征與目標(biāo)對(duì)于之間的關(guān)系始終在一個(gè)方向上變化 (增大或減小)。更重要的是,這種關(guān)系適用于整個(gè)特征域,且與其他的特征變量無(wú)關(guān)。
單調(diào)線性響應(yīng)函數(shù)實(shí)例 (其中輸入變量為 x,響應(yīng)變量為 y)
線性回歸模型的響應(yīng)函數(shù)就是個(gè)線性單調(diào)函數(shù),而隨機(jī)森林和神經(jīng)網(wǎng)絡(luò)的響應(yīng)函數(shù)則是高度非線性、非單調(diào)響應(yīng)函數(shù)的例子。
下圖則闡述了在需要清晰簡(jiǎn)單的模型可解釋性時(shí),通常首選白盒模型 (具有線性和單調(diào)函數(shù)) 的原因。圖的上半部顯示,隨著年齡的增長(zhǎng),購(gòu)買(mǎi)數(shù)量會(huì)增加,模型的響應(yīng)函數(shù)在全局范圍內(nèi)具有線性和單調(diào)關(guān)系,易于解釋模型。
然而,由于白盒模型響應(yīng)函數(shù)的線性和單調(diào)約束,通常容易忽略其變化趨勢(shì)的重要部分。通過(guò)探索更復(fù)雜的機(jī)器學(xué)習(xí)模型能夠更好地?cái)M合觀測(cè)數(shù)據(jù),而這些復(fù)雜模型的響應(yīng)函數(shù)只是在局部呈單調(diào)線性變化。因此,為了解釋模型的行為,研究模型局部變化情況是很有必要的。
模型可解釋性的范圍,如全局或局部層面,都與模型的復(fù)雜性緊密相關(guān)。線性模型在整個(gè)特征空間中將表現(xiàn)出相同的行為 (如上圖所示),因此它們具有全局可解釋性。而輸入和輸出之間的關(guān)系通常受到復(fù)雜性和局部解釋的限制 (如為什么模型在某個(gè)數(shù)據(jù)點(diǎn)進(jìn)行某種預(yù)測(cè)?),將其默認(rèn)為全局性解釋。
對(duì)于那些更復(fù)雜的模型,模型的全局行為就更難定義了,而且還需要對(duì)其響應(yīng)函數(shù)的小區(qū)域進(jìn)行局部解釋。這些小區(qū)域可能表現(xiàn)出線性和單調(diào),以便得到更準(zhǔn)確的解釋。
ML 庫(kù) (例如 sklearn) 允許對(duì)不同分類器進(jìn)行快速比較。當(dāng)數(shù)據(jù)集的大小和維度受限時(shí),我們還可以解釋模型的預(yù)測(cè)結(jié)果。但在大多數(shù)現(xiàn)實(shí)問(wèn)題中,情況就不再是如此。
接下來(lái)將為大家重點(diǎn)介紹兩種提供全局和局部解釋、且與模型本身無(wú)關(guān)可解釋性技術(shù)。這些技術(shù)可以應(yīng)用于任何機(jī)器學(xué)習(xí)算法,并通過(guò)分析機(jī)器學(xué)習(xí)模型的響應(yīng)函數(shù)來(lái)實(shí)現(xiàn)可解釋性。
可解釋性技術(shù)
1、代理模型 (Surrogate models)
代理模型通常是一種簡(jiǎn)單模型,用于解釋那些復(fù)雜模型。常用的代理模型有線性模型和決策樹(shù)模型,主要是由于這些模型易于解釋。構(gòu)建代理模型,將其用于表示復(fù)雜模型 (響應(yīng)函數(shù)) 的決策過(guò)程,并作用于輸入和模型預(yù)測(cè),而不是在輸入和目標(biāo)上訓(xùn)練。
代理模型在非線性和非單調(diào)模型之上提供了一個(gè)全局可解釋層,但它們不完全相互依賴。它的作用只要是作為模型的“全局總結(jié)”,并不能完美地表示模型底層的響應(yīng)函數(shù),也不能捕獲復(fù)雜的特征關(guān)系。以下步驟說(shuō)明了如何為復(fù)雜的黑盒模型構(gòu)建代理模型:
訓(xùn)練一個(gè)黑盒模型。
在數(shù)據(jù)集上評(píng)估黑盒模型。
選擇一個(gè)可解釋的代理模型 (通常是線性模型或決策樹(shù)模型)。
在數(shù)據(jù)集上訓(xùn)練這個(gè)可解釋性模型,并預(yù)測(cè)。
確定代理模型的錯(cuò)誤度量,并解釋該模型。
2、LIME
LIME 是另一種可解釋性技術(shù),它的核心思想與代理模型相同。然而,LIME 并不是通過(guò)構(gòu)建整個(gè)數(shù)據(jù)集的全局代理模型,而只是構(gòu)建部分區(qū)域預(yù)測(cè)解釋的局部代理模型 (線性模型),來(lái)解釋模型的行為。有關(guān) LIME 技術(shù)的深入解釋,可以參閱 LIME 有關(guān)的文章
文章鏈接:
https://towardsdatascience.com/understanding-model-predictions-with-lime-a582fdff3a3b
此外,LIME 方法能夠提供一種直觀的方法來(lái)解釋給定數(shù)據(jù)的模型預(yù)測(cè)結(jié)果。有關(guān)如何為復(fù)雜的黑盒模型構(gòu)建 LIME 解釋模型的步驟如下:
訓(xùn)練一個(gè)黑盒模型。
采樣局部感興趣區(qū)域的樣本點(diǎn),這些樣本點(diǎn)可以從數(shù)據(jù)集中直接檢索,也可以人工生成。
通過(guò)鄰近的感興趣區(qū)域?qū)π聵颖具M(jìn)行加權(quán),通過(guò)在數(shù)據(jù)集上使用變量來(lái)擬合得到一個(gè)加權(quán)的、可解釋的代理模型。
解釋這個(gè)局部代理模型。
結(jié)論
總的來(lái)說(shuō),你可以通過(guò)幾種不同的技術(shù)來(lái)提高機(jī)器學(xué)習(xí)模型的可解釋性。盡管,隨著相關(guān)領(lǐng)域研究的改進(jìn),這些技術(shù)也將變得越來(lái)越強(qiáng)大,但使用不同技術(shù)并進(jìn)行比較仍然是很重要的。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4814瀏覽量
103648 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8503瀏覽量
134635 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1224瀏覽量
25449
原文標(biāo)題:機(jī)器學(xué)習(xí)的可解釋性:黑盒vs白盒(內(nèi)附開(kāi)源學(xué)習(xí)書(shū)) | Deep Reading
文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
機(jī)器學(xué)習(xí)模型可解釋性的結(jié)果分析

如何通過(guò)XGBoost解釋機(jī)器學(xué)習(xí)

介紹一下labview機(jī)器視覺(jué)怎么實(shí)現(xiàn)一些零件尺寸的測(cè)量。
【下載】《機(jī)器學(xué)習(xí)》+《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》
軟體機(jī)器人學(xué)習(xí)問(wèn)題探討
什么是機(jī)器學(xué)習(xí)? 機(jī)器學(xué)習(xí)基礎(chǔ)入門(mén)
如何描述機(jī)器學(xué)習(xí)中的一些綜合能力
機(jī)器學(xué)習(xí)的一些代碼示例合集

詳談機(jī)器學(xué)習(xí)的決策樹(shù)模型

機(jī)器學(xué)習(xí)模型的可解釋性算法詳解

評(píng)論