一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

全面介紹因果推斷方向的基礎(chǔ)方法

深度學(xué)習(xí)自然語言處理 ? 來源:機(jī)器學(xué)習(xí)算法與自然語言 ? 作者:陳歪歪 ? 2021-05-26 09:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

寫在前面

這一部分主要介紹的是因果推斷方向的基礎(chǔ)方法,后面會(huì)對(duì)這個(gè)方向前沿的論文和方向做一些基礎(chǔ)介紹,這些論文和方法有些我進(jìn)行了精讀或者實(shí)現(xiàn)。

有些只是粗略地了解了大概的主旨,但是會(huì)力求講解得盡量清楚明白,這里的介紹不分先后,只是對(duì)不同方法進(jìn)行介紹,不同領(lǐng)域在早期和近期都有相關(guān)新論文出現(xiàn),有任何問題和建議歡迎評(píng)論和私聊。

meta learning

這個(gè)方向使用基礎(chǔ)的機(jī)器學(xué)習(xí)方法去首先Estimate the conditional mean outcome E[Y|X = x](CATE),然后 Derive the CATE estimator based on the difference of results obtained from step 1,我們常見的uplift model里面one model和two model方法其實(shí)也是屬于meta learning,在這個(gè)領(lǐng)域one model方法是所謂的S-learner,two model方法是所謂的T-learner

T-learner & S-learner

da194014-bd58-11eb-9e57-12bb97331649.png

這里不多贅述這兩種方法,簡單來講,T-learner就是用分別的兩個(gè)base learner去模擬干預(yù)組的outcome和非干預(yù)組的outcome,優(yōu)點(diǎn)在于能夠很好地區(qū)分干預(yù)組和非干預(yù)組,缺點(diǎn)則在于容易出現(xiàn)兩個(gè)模型的Bias方向不一致,形成誤差累積。

使用時(shí)需要針對(duì)兩個(gè)模型打分分布做一定校準(zhǔn),S-learner是將treatment作為特征,干預(yù)組和非干預(yù)組一起訓(xùn)練,解決了bias不一致的問題,但是如果本身X的high dimension可能會(huì)導(dǎo)致treatment丟失效果。而且這兩種方法更偏向于naive的方法,很多其他的問題比如干預(yù)組和非干預(yù)組樣本不均衡的問題、selection bias的問題都未解決。

2. X-learner

在這兩種方法的基礎(chǔ)之上還有《Metalearners for estimating heterogeneous treatment effects using machine learning pnas.org/content/116/10》這篇論文中介紹的X-learner

首先跟T-learner一樣,用base learner去預(yù)估干預(yù)組和非干預(yù)組的response

da48601a-bd58-11eb-9e57-12bb97331649.png

然后定義

da96615c-bd58-11eb-9e57-12bb97331649.jpg

這里D的定義為response的預(yù)估值和實(shí)際值的差值,然后我們用一個(gè)estimator去預(yù)估這里的D,最終我們的CATE就是這兩個(gè)預(yù)估出來的τ的加權(quán)和。

dad604d8-bd58-11eb-9e57-12bb97331649.png

論文中用圖來解釋了這么做的原因,如下:

dae4b3f2-bd58-11eb-9e57-12bb97331649.jpg

如上圖所示,如果我們的干預(yù)組和非干預(yù)組樣本數(shù)量不均衡,如圖A的藍(lán)色,那么在預(yù)估藍(lán)色的base learner時(shí)會(huì)出現(xiàn)無法擬合到中間上凸部分的情況,最終得到的treatment effect就是在中間部分下凸的結(jié)果。

但是如果我們使用了imputed treatment effect,會(huì)得到C中虛線的均衡結(jié)果。

論文中還提到了自己的實(shí)驗(yàn),實(shí)驗(yàn)效果總結(jié)來看,如果treat和不treat的數(shù)據(jù)量差別比較大的時(shí)候,X learner效果特別好,但是如果CATE接近0的時(shí)候,X learner效果不如S learner,比T learner好,make sense的。

3. 總結(jié)性論文

meta learning的方法有非常多,這里只是提到較為經(jīng)典的三種,其他meta learning的方法比如R-learner有點(diǎn)老了,這里不再介紹,在《Transfer Learning for Estimating Causal Effects using Neural Networks arxiv.org/abs/1808.0780》中比較有意思的是提到了很多方法的方案。

包括傳統(tǒng)藝能S-learner,T-learner,X-learner和比如warm start T-learner、joint training等等,有興趣可以看看。

representation learning

表示學(xué)習(xí)對(duì)于因果推斷其實(shí)算是非常自然的想法,本身由于selection bias的存在,導(dǎo)致treament group和control group的人群自帶偏差,而類似S-learner的方法又會(huì)使得treat的作用丟失,那么將人群embedding中并盡可能消除bias和保存treat的作用就非常重要了。

BNN & BLR

比較經(jīng)典的論文有BNN、BLR《Learning Representations for Counterfactual Inference arxiv.org/abs/1605.0366》,整體的算法如圖:

db1325e8-bd58-11eb-9e57-12bb97331649.jpg

其中B指的是loss:

db615a24-bd58-11eb-9e57-12bb97331649.png

loss包含了三部分:事實(shí)數(shù)據(jù)的誤差+和與i最近的j的反事實(shí)數(shù)據(jù)的誤差和事實(shí)數(shù)據(jù)+反事實(shí)數(shù)據(jù)的分布差異,那我們是怎么學(xué)習(xí)φ的呢?

一個(gè)方法是對(duì)于特征進(jìn)行選擇BLR,在embedding層只有一層,更加白盒,相當(dāng)于特征篩選,只保留在treatment group和control group差距較小的特征。

db9877e8-bd58-11eb-9e57-12bb97331649.jpg

另一個(gè)方法是深度的方法BNN,embedding后整體的loss加入分布的差異。

dba8cb66-bd58-11eb-9e57-12bb97331649.png

2. TARNet

與這篇論文很相似的論文包括TARNet《Estimating individual treatment effect:generalization bounds and algorithms arxiv.org/abs/1606.0397》,這篇文章整體的思路跟BNN那篇有點(diǎn)像,說到了BNN那篇的問題。

這里面講了BLR的兩個(gè)缺點(diǎn),首先它需要一個(gè)兩步的優(yōu)化(優(yōu)化φ和優(yōu)化y),其次如果如果φ的維度很高的話,t的重要性會(huì)被忽略掉,挺有道理的,但感覺跟那篇唯一的區(qū)別就是解決了一下treat和control組的sample數(shù)量不均衡的問題,所以火速看了一下就過了

loss的計(jì)算為:

dbcf74e6-bd58-11eb-9e57-12bb97331649.jpg

可以看出是在上篇論文的基礎(chǔ)上增加了ω的加權(quán),去除了樣本不均衡的問題。整體的算法步驟如下:

dbfef6da-bd58-11eb-9e57-12bb97331649.jpg

把兩步走的優(yōu)化變?yōu)榱送瑫r(shí)優(yōu)化,雖然優(yōu)化看起來比較微小,但如果大家實(shí)際跑一下IHDP數(shù)據(jù)集的話會(huì)發(fā)現(xiàn)提升還是挺明顯的。

3. CFR

還有一篇論文是在TARNet之上進(jìn)行優(yōu)化的,《Counter Factual Regression with Importance Sampling Weights https://www.ijcai.org/Proceedings/2019/0815.pdf》而本文的改進(jìn)點(diǎn)也在ω上,不除以p(t),而是用一個(gè)網(wǎng)絡(luò)學(xué)習(xí)了p(t|x),除以p(t|x)

dc1386f4-bd58-11eb-9e57-12bb97331649.png

作者將其簡化為

dc25abcc-bd58-11eb-9e57-12bb97331649.png

可以用任何的網(wǎng)絡(luò)去擬合第二項(xiàng),整體的過程為:

dc90d226-bd58-11eb-9e57-12bb97331649.jpg

4. ACE

還有一篇論文講到了另一個(gè)角度《Adaptively Similarity-preserved Representation Learning for Individual Treatment Effect Estimation cs.virginia.edu/~mh6ck/》

這篇主要的思想希望在representation之后能夠盡可能地保留local similarity,用一個(gè)toy example來說如下:

dca417b4-bd58-11eb-9e57-12bb97331649.jpg

整體的框架如圖:fprop(x)是提前訓(xùn)練好的傾向性得分function

dcb13f0c-bd58-11eb-9e57-12bb97331649.png

整體希望representation之前用x計(jì)算出傾向性得分相近的兩個(gè)個(gè)體,representation之后,representation之間的距離還是相近,把最重要的部分貼下來如下:

dd13e58a-bd58-11eb-9e57-12bb97331649.jpg

其中Q是Ri和Rj的聯(lián)合概率(R是representation),P是xi和xj的聯(lián)合概率,similarity preserving loss就是Q和P的KL散度,其中S的函數(shù)如下:

dd659c04-bd58-11eb-9e57-12bb97331649.png

整體的loss包括正常的imbalance loss:

dd710396-bd58-11eb-9e57-12bb97331649.png

Factual y的分類或者回歸loss:

dd7bd2d0-bd58-11eb-9e57-12bb97331649.png

還有similarity preserving loss,總的loss function就是:

dd9033e2-bd58-11eb-9e57-12bb97331649.png

5. SITE

還有一篇比較類似思想的論文是SITE《Representation Learning for Treatment Effect Estimation from Observational Data papers.nips.cc/paper/75》但這篇論文我沒有非常認(rèn)真地讀,來自NIPS,也是非常經(jīng)典的一篇,說的主要是普通的representation learning的方法考慮了全局的分布信息。

但是沒有考慮用戶間的局部相似性,然后KNN的方法考慮了局部相似性,但是忽略了全局信息,這里面用了三元triplet pairs的方法選擇三個(gè)對(duì),用的是傾向性得分,傾向性得分在中間的一對(duì),傾向性得分接近1的treat unit,傾向性得分接近0的control group,有興趣的同學(xué)可以自己看一下。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134548
  • BNN
    BNN
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    2724
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    可以在OpenVINO?工具套件的視覺處理單元上推斷語音合成模型嗎?

    無法確定是否可以在 VPU 上推斷語音合成模型
    發(fā)表于 03-06 08:29

    請問是否有任何OpenVINO?樣本可以推斷批次大小大于1的檢測模型?

    是否有任何OpenVINO?樣本可以推斷批次大小大于 1 的檢測模型?
    發(fā)表于 03-06 07:19

    是否可以在16位或32位圖像上推斷單映像-超級(jí)分辨率1032的模型?

    無法確定是 單圖像超級(jí)分辨率 - 1032 模型可以推斷為 16 位還是 32 位圖像
    發(fā)表于 03-06 07:16

    為什么無法從源代碼推斷OpenVINO?構(gòu)建中的VPU?

    為什么無法從源代碼推斷OpenVINO?構(gòu)建中的 VPU
    發(fā)表于 03-06 07:12

    為什么在GNA_SW_FP32和GNA_HW執(zhí)行模式中推斷時(shí),Precision值會(huì)不一樣?

    將 LSTM 模型轉(zhuǎn)換為中間表示 (IR)。 在GNA_SW_FP32和GNA_HW執(zhí)行模式中進(jìn)行推斷時(shí),獲得兩個(gè)不同的精確值。
    發(fā)表于 03-06 06:46

    與OpenVINO?推斷時(shí)遇到“Runtimeeror: Can Can Constant Fold Eltwise節(jié)點(diǎn)”錯(cuò)誤怎么解決?

    --saved_model_dir --output_dir 使用 IR 文件推斷時(shí)收到 \"RuntimeError: Can not constant fold eltwise node\" 錯(cuò)誤。
    發(fā)表于 03-05 07:53

    為什么Caffe模型可以直接與OpenVINO?工具套件推斷引擎API一起使用,而無法轉(zhuǎn)換為中間表示 (IR)?

    推斷 Caffe 模型直接基于 英特爾? 神經(jīng)電腦棒 2 (英特爾? NCS2)。 無法確定為什么 Caffe 模型可以直接與OpenVINO?工具套件推斷引擎 API 一起使用,而無法轉(zhuǎn)換為中間表示 (IR)。
    發(fā)表于 03-05 06:31

    維智科技已正式接入DeepSeek

    、復(fù)雜推理能力深度融合,實(shí)現(xiàn)對(duì)海量時(shí)空信息的動(dòng)態(tài)感知與因果推斷,全面涵蓋城市、商業(yè)、金融、營銷等多個(gè)應(yīng)用場景。 在智慧城市層面,全面迎來3大升級(jí) 一 技術(shù)架構(gòu)升維:從二維到“虛實(shí)共生”
    的頭像 發(fā)表于 02-22 14:21 ?877次閱讀

    伺服電機(jī)實(shí)現(xiàn)方向改變的方法

    伺服電機(jī)是一種高精度、高響應(yīng)速度的電機(jī),廣泛應(yīng)用于工業(yè)自動(dòng)化、機(jī)器人、航空航天等領(lǐng)域。在實(shí)際應(yīng)用中,有時(shí)需要改變電機(jī)的旋轉(zhuǎn)方向,以滿足不同的工作需求。本文將詳細(xì)介紹伺服電機(jī)改變方向方法
    的頭像 發(fā)表于 02-12 11:07 ?978次閱讀

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機(jī)電系統(tǒng)中的故障檢測對(duì)其可維護(hù)性和安全性至關(guān)重要。然而,系統(tǒng)監(jiān)測變量往往具有復(fù)雜的聯(lián)系,很難表征它們的關(guān)系并提取有效的特征。本文開發(fā)了一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)(HGCAN),以提高復(fù)雜
    的頭像 發(fā)表于 11-12 09:52 ?1055次閱讀
    一種基于<b class='flag-5'>因果</b>路徑的層次圖卷積注意力網(wǎng)絡(luò)

    鑒源實(shí)驗(yàn)室·測試設(shè)計(jì)方法-因果

    上篇文章(ISO 26262中測試用例的得出方法-邊界值分析)我們介紹了等價(jià)類方法和邊界值方法,這兩種方法廣泛應(yīng)用并適用于各種類型測試的設(shè)計(jì)
    的頭像 發(fā)表于 11-05 15:17 ?538次閱讀
    鑒源實(shí)驗(yàn)室·測試設(shè)計(jì)<b class='flag-5'>方法</b>-<b class='flag-5'>因果</b>圖

    GPGPU體系結(jié)構(gòu)優(yōu)化方向(1)

    繼續(xù)上文GPGPU體系結(jié)構(gòu)優(yōu)化方向 [上],介紹提高并行度和優(yōu)化流水線的方向。
    的頭像 發(fā)表于 10-09 10:03 ?661次閱讀
    GPGPU體系結(jié)構(gòu)優(yōu)化<b class='flag-5'>方向</b>(1)

    RS-485:自動(dòng)方向介紹及其在系統(tǒng)中的作用

    電子發(fā)燒友網(wǎng)站提供《RS-485:自動(dòng)方向介紹及其在系統(tǒng)中的作用.pdf》資料免費(fèi)下載
    發(fā)表于 09-12 10:35 ?0次下載
    RS-485:自動(dòng)<b class='flag-5'>方向</b><b class='flag-5'>介紹</b>及其在系統(tǒng)中的作用

    當(dāng)系統(tǒng)鬧脾氣:用「因果推斷」哄穩(wěn)技術(shù)的心

    背景 系統(tǒng)穩(wěn)定性問題往往涉及復(fù)雜的因果關(guān)系。例如,一個(gè)系統(tǒng)的崩潰可能由多個(gè)因素引起,包括硬件故障、軟件bug、業(yè)務(wù)配置、外部攻擊或其他操作不當(dāng)?shù)取@斫膺@些因素之間的因果關(guān)系對(duì)于系統(tǒng)穩(wěn)定性建設(shè)至關(guān)重要
    的頭像 發(fā)表于 08-14 10:42 ?632次閱讀
    當(dāng)系統(tǒng)鬧脾氣:用「<b class='flag-5'>因果</b><b class='flag-5'>推斷</b>」哄穩(wěn)技術(shù)的心

    負(fù)電荷的移動(dòng)方向是電流方向

    負(fù)電荷的移動(dòng)方向不是電流方向。電流方向的定義是正電荷的移動(dòng)方向。在電學(xué)中,電流的方向通常被規(guī)定為正電荷的移動(dòng)
    的頭像 發(fā)表于 07-29 17:03 ?3944次閱讀