一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

ICML 2023 | 對多重圖進行解耦的表示學習方法

智能感知與物聯(lián)網(wǎng)技術研究所 ? 來源:未知 ? 2023-09-24 20:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgaomUkfuqAZtgxAAAl6LOgh3c601.png

Introduction

無監(jiān)督多重圖表示學習(UMGRL)受到越來越多的關注,但很少有工作同時關注共同信息和私有信息的提取。在本文中,我們認為,為了進行有效和魯棒的 UMGRL,提取完整和干凈的共同信息以及更多互補性和更少噪聲的私有信息至關重要。

為了實現(xiàn)這一目標,我們首先研究了用于多重圖的解纏表示學習,以捕獲完整和干凈的共同信息,并設計了對私有信息進行對比約束,以保留互補性并消除噪聲。此外,我們在理論上分析了我們方法學到的共同和私有表示可以被證明是解纏的,并包含更多與任務相關和更少與任務無關的信息,有利于下游任務。大量實驗證實了所提方法在不同下游任務方面的優(yōu)越性。

wKgaomUkfuqAVfjYAABHPPBGdKY217.png

論文標題:

Disentangled Multiplex Graph Representation Learning

論文鏈接:

https://openreview.net/pdf?id=lYZOjMvxws

代碼鏈接:

https://github.com/YujieMo/DMG

wKgaomUkfuqAGHq2AAAuhh9-KLM945.png

Motivation

以前的 UMGRL 方法旨在隱式提取不同圖之間的共同信息,這對于揭示樣本的身份是有效和魯棒的。然而,它們通常忽視了每個圖的私有信息中的互補性,并可能失去節(jié)點之間的重要屬性。

例如,在多重圖中,其中論文是節(jié)點,邊代表兩個不同圖中的共同主題或共同作者。如果一個私有邊(例如,共同主題關系)僅存在于某個圖中,并連接來自相同類別的兩篇論文,它有助于通過提供互補信息來降低類內差距,從而識別論文。因此,有必要同時考慮共同信息和私有信息,以實現(xiàn) UMGRL 的有效性和魯棒性。

基于有助于識別樣本的共同信息,捕獲不同圖之間的所有共同信息(即完整的)是直觀的。此外,這種完整的共同信息應該僅包含共同信息(即干凈的)。相反,如果共同信息包含其他混淆的內容,共同信息的質量可能會受到損害。

因此,第一個問題出現(xiàn)了:如何獲得完整和干凈的共同信息?另一方面,私有信息是互補性和噪聲的混合??紤]引文網(wǎng)絡的同一個示例,如果私有邊連接來自不同類別的兩篇論文,它可能會干擾消息傳遞,應該作為噪聲被刪除。因此,第二個問題出現(xiàn)了:如何保留私有信息中的互補性并去除噪聲?

然而,以前的 UMGRL 方法很少探討了上述問題。最近,已經(jīng)開發(fā)了解耦表示學習方法,以獲得共同和私有表示,但由于多重圖中節(jié)點之間的復雜關系以及圖結構中的互補性和噪聲,將它們應用于解決 UMGRL 中的上述問題是具有挑戰(zhàn)性的。為此,我們提出了一種新的解耦多重圖表示學習框架,以回答上述兩個問題。

wKgaomUkfuqAGClPAAAtJ0fTuoM407.png

Method wKgaomUkfuuAFKzpAAOcVeoAsDo707.png

Notations

表示多重圖,表示多重圖中的第 張圖,表示圖的數(shù)量。

本文模型 DMG 首先通過一個共同變量 學習到經(jīng)過解耦的共同表示以及私有表示,接著獲取到融合表示

3.1 Common Information Extraction

以前的 UMGRL 方法(例如,圖之間的對比學習方法)通常通過最大化兩個圖之間的互信息來隱式捕獲不同圖之間的共同模式。例如,為了提取共同信息,STENCIL(Zhu等人,2022)最大化每個圖與聚合圖之間的互信息,而 CKD(Zhou等人,2022)最大化不同圖中區(qū)域表示和全局表示之間的互信息。

然而,由于它們未能將共同信息與私有信息解耦,因此這些努力不能明確地捕獲完整且干凈的共同信息。為了解決這個問題,本文研究了解耦表示學習,以獲得完整且 clean 的共同信息。

具體地,首先使用圖卷積層 生成節(jié)點表示

wKgaomUkfuuABQ8NAAAvkkAdEjM107.png

表示一個帶權重的自環(huán); 表示度矩陣; 表示卷積層 的權重矩陣。

接著使用 MLP 來促進每張圖共同和私有信息的解耦過程,分別將節(jié)點嵌入 映射為共同表示和私有表示 給定每張圖的共同表示 ,對齊這些表示最簡單的方法使讓它們彼此相等。然而這樣做會影響共同表示的質量。在本文中,我們通過奇異值分解操作引入了一個具有正交性和零均值的公共變量 到共同表示中。然后,我們對公共表示 與公共變量 之間進行匹配損失,旨在逐漸對齊來自不同圖的共同表示,以捕獲它們之間的完整共同信息。匹配損失的公式如下:wKgaomUkfuuAN_OnAABm6_AnC5s014.png的作用是作為所有圖共同表示之間的一個橋梁,使得這些表示具有較好的一致性:。

然后,為了解耦公共和私有表示,我們必須強化它們之間的統(tǒng)計獨立性。值得注意的是,如果公共和私有表示在統(tǒng)計上是獨立的,那么必須滿足:

wKgaomUkfuuAfQVjAAA1rUFYpCg594.png

顯然,通過最小化 之間的相關性,可以實現(xiàn)公共和私有表示之間的獨立性。特別是,相關性損失是通過計算 Pearson 相關系數(shù)來獲得的,即:wKgaomUkfuuAIf8PAABc_K2L0zc801.png我們期望通過匹配損失(即獲得完整的共同信息)和相關性損失(即獲得干凈的共同信息)來獲得清晰的共同表示 中的共同信息。然而,在無監(jiān)督框架下,學得的共同和私有表示可能是微不足道的解決方案。 常見的解決方案包括對比學習方法和自編碼器方法。對比學習方法引入大量負樣本以避免微不足道的解決方案,但可能會引入大量的內存開銷。自編碼器方法采用自編碼器框架,通過重構損失來促進編碼器的可逆性,以防止微不足道的解決方案。然而,現(xiàn)有的圖自編碼器旨在重構直接的邊緣,忽略了拓撲結構,并且計算成本高昂。 為了解決上述問題,我們研究了一種新的重構損失,以同時重構節(jié)點特征和拓撲結構。具體而言,我們首先將共同和私有表示連接在一起,然后使用重構網(wǎng)絡 獲得重構的節(jié)點表示 。我們進一步進行特征重構和拓撲重構損失,以分別重構節(jié)點特征和局部拓撲結構。因此,重構損失可以表述為:wKgaomUkfuyACBs_AABGcDUoCZA710.png

, 表示采樣的鄰居數(shù)。

在上式中第一項鼓勵 重構原始節(jié)點特征,第二項鼓勵 重構拓撲結構。

3.2 Private Information Constraint

私有信息是補充信息和噪音的混合物。因此,鑒于學習到的私有表示,我們希望進一步回答 3.1 節(jié)中的第二個問題,即保留補充信息并消除私有信息中的噪聲。此外,多重圖的私有信息主要位于每個圖的圖結構中,因為不同圖的節(jié)點特征是從共享特征矩陣 X 生成的。因此,我們研究了在每個圖結構中保留互補邊并去除噪聲邊。

首先提供了以下有關圖結構中補充信息和噪聲的定義:
  • 圖 上的任意私有邊,即 ,若節(jié)點對 所屬的類別相同,那么 將是圖 的一條補充邊,否則是一條噪聲邊。
根據(jù)定義 3.2,每個圖中的私有信息分為兩部分,即補充邊和噪聲邊,根據(jù)節(jié)點對的類別。然而,在無監(jiān)督方式下,節(jié)點標簽不可用。為解決這個問題,在這項工作中,我們將節(jié)點對(vi, vj)的標簽信息近似為共同變量 之間的余弦相似度:wKgaomUkfuyAfpVoAAAdVBUNh_A185.png ?給定邊集 中所有節(jié)點對的余弦相似度,進一步假設具有最高相似度的節(jié)點對屬于同一類,具有低相似度的節(jié)點對屬于不同類。因此,對于連接節(jié)點的高相似性邊是補充邊,表示為 ,而對于連接節(jié)點的低相似性邊是噪聲邊,表示為 。直觀地,應保留補充邊,而應刪除噪聲邊。

設計了一個對比模塊,用于進行對比損失:

wKgaomUkfuyARvQ0AABMx0GFwa4225.png

3.3 Objective Function

wKgaomUkfuyAQlDZAAAlJTzDbvE765.png

經(jīng)過優(yōu)化,預計所提出的 DMG 將獲得完整且干凈的公共表示,以及更多互補性和更少噪聲的私有表示,以實現(xiàn)有效且穩(wěn)健的 UMGRL)。然進行平均池化(LeCun等人,1989)來融合所有圖的私有表示,以獲得總體的私有表示 P,即

wKgaomUkfuyADKqjAAAahdKicYQ162.png

最后,我們將總體的私有表示 P 與共同變量 S 連接起來,獲得最終的表示 Z。

wKgaomUkfuyARpcyAAAr2pbNr48206.png

Experiments

4.1 Node Classification

wKgaomUkfu2AWKwiAAZ8K96J5VQ663.png

4.2 Node Clustering

wKgaomUkfu2ASdYNAAQCp_M5_UQ687.png

4.3 Single-view graph datasets

wKgaomUkfu2ATRbIAAUw1jhX_cg715.png

wKgaomUkfu6AZ8zhAAAtTL4L6hI450.png

Conclusion

本文提出了一個用于多重圖的解耦表示學習框架。為實現(xiàn)這一目標,我們首先解耦了共同表示和私有表示,以捕獲完整和干凈的共同信息。我們進一步設計了對私有信息進行對比約束,以保留互補性并消除噪聲。理論分析表明,我們方法學到的共同和私有表示可以被證明是解耦的,包含更多與任務相關的信息和更少與任務無關的信息,有利于下游任務。廣泛的實驗結果表明,所提出的方法在不同的下游任務中在有效性和魯棒性方面始終優(yōu)于現(xiàn)有方法。

·


原文標題:ICML 2023 | 對多重圖進行解耦的表示學習方法

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術研究所】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:ICML 2023 | 對多重圖進行解耦的表示學習方法

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    思必馳與上海交大聯(lián)合實驗室兩篇論文入選ICML 2025

    ICML(International Conference on Machine Learning)是機器學習領域的頂級學術會議之一,由國際機器學習學會(IMLS)主辦,被中國計算機學會認定為A類
    的頭像 發(fā)表于 06-16 09:23 ?637次閱讀
    思必馳與上海交大聯(lián)合實驗室兩篇論文入選<b class='flag-5'>ICML</b> 2025

    軟硬+模塊化:深度拆解開放架構的“自由”基因

    ET2500系列應運而生——這款基于開放架構的智能業(yè)務處理平臺,通過算網(wǎng)融合芯片與模塊化設計,實現(xiàn)軟硬件,將網(wǎng)絡、路由、安全等功能集成于單一設備,為中小企業(yè)提供高性能、易維護的一體化解決方案
    的頭像 發(fā)表于 06-09 15:42 ?433次閱讀
    軟硬<b class='flag-5'>解</b><b class='flag-5'>耦</b>+模塊化:深度拆解開放架構的“自由”基因

    第一章 W55MH32 高性能以太網(wǎng)單片機的學習方法概述

    本章介紹W55MH32的學習方法,建議先了解硬件資源,按基礎篇、入門篇循序漸進學習。參考兩份手冊,提供例程資料,還給出官網(wǎng)、github 等學習資料查找渠道。讓我們一起踏上W55MH32高性能以太網(wǎng)單片機的
    的頭像 發(fā)表于 05-26 09:07 ?85次閱讀
    第一章 W55MH32 高性能以太網(wǎng)單片機的<b class='flag-5'>學習方法</b>概述

    使用MATLAB進行無監(jiān)督學習

    無監(jiān)督學習是一種根據(jù)未標注數(shù)據(jù)進行推斷的機器學習方法。無監(jiān)督學習旨在識別數(shù)據(jù)中隱藏的模式和關系,無需任何監(jiān)督或關于結果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?665次閱讀
    使用MATLAB<b class='flag-5'>進行</b>無監(jiān)督<b class='flag-5'>學習</b>

    18個常用的強化學習算法整理:從基礎方法到高級模型的理論技術與代碼實現(xiàn)

    本來轉自:DeepHubIMBA本文系統(tǒng)講解從基本強化學習方法到高級技術(如PPO、A3C、PlaNet等)的實現(xiàn)原理與編碼過程,旨在通過理論結合代碼的方式,構建對強化學習算法的全面理解。為確保內容
    的頭像 發(fā)表于 04-23 13:22 ?397次閱讀
    18個常用的強化<b class='flag-5'>學習</b>算法整理:從基礎<b class='flag-5'>方法</b>到高級模型的理論技術與代碼實現(xiàn)

    永磁同步電機電流環(huán)改進內模控制的研究

    取,因此控制效果難以達到最佳 。依據(jù)自由度原理,在保證內模效果的基礎上,引入 2 個內模電流調 節(jié)因子,對內模控制器進行改進 。仿真
    發(fā)表于 03-26 14:25

    一種無刷直流電機霍耳信號與定子繞組關系自學習方法

    的關系。提出了一種無刷直流電機霍耳信號與定子繞組關系自學習方法,該方法通過不同的繞組通電組合將電機轉子依次轉到6個不同的位置并記錄對應的霍耳信號,然后得出霍耳信號與定子繞組的對應關系。所提出的方法快速
    發(fā)表于 03-25 15:15

    DeepSeek與Kimi揭示o1秘密,思維鏈學習方法顯成效

    據(jù)消息,OpenAI近日發(fā)布了一項重要研究報告。報告指出,DeepSeek和Kimi兩家機構通過獨立研究,成功利用思維鏈學習方法,在數(shù)學解題與編程挑戰(zhàn)中顯著提升了模型的綜合表現(xiàn)。 Kimi的研究員
    的頭像 發(fā)表于 02-18 15:13 ?465次閱讀

    傳統(tǒng)機器學習方法和應用指導

    用于開發(fā)生物學數(shù)據(jù)的機器學習方法。盡管深度學習(一般指神經(jīng)網(wǎng)絡算法)是一個強大的工具,目前也非常流行,但它的應用領域仍然有限。與深度學習相比,傳統(tǒng)方法在給定問題上的開發(fā)和測試速度更快。
    的頭像 發(fā)表于 12-30 09:16 ?1173次閱讀
    傳統(tǒng)機器<b class='flag-5'>學習方法</b>和應用指導

    瑞薩電子與吉利汽車聯(lián)合舉辦汽車主控芯片軟硬能力提升訓練營

    近日,由瑞薩電子與吉利汽車研究院聯(lián)合舉辦的“汽車主控芯片軟硬能力提升訓練營”順利落幕。
    的頭像 發(fā)表于 12-09 10:50 ?730次閱讀

    非線性光與線性光的差別

    非線性光與線性光的不同 在電路中光的電路非常常見,光在電路中的作用是進行隔離并對光電進行
    的頭像 發(fā)表于 11-16 10:28 ?1240次閱讀

    什么是機器學習?通過機器學習方法能解決哪些問題?

    計算機系統(tǒng)自身的性能”。事實上,由于“經(jīng)驗”在計算機系統(tǒng)中主要以數(shù)據(jù)的形式存在,因此機器學習需要設法對數(shù)據(jù)進行分析學習,這就使得它逐漸成為智能數(shù)據(jù)分析技術的創(chuàng)新源之一,
    的頭像 發(fā)表于 11-16 01:07 ?957次閱讀
    什么是機器<b class='flag-5'>學習</b>?通過機器<b class='flag-5'>學習方法</b>能解決哪些問題?

    如何使用 PyTorch 進行強化學習

    強化學習(Reinforcement Learning, RL)是一種機器學習方法,它通過與環(huán)境的交互來學習如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器學習庫,
    的頭像 發(fā)表于 11-05 17:34 ?1020次閱讀

    《DNK210使用指南 -CanMV版 V1.0》第一章本書學習方法

    第一章 本書學習方法 為了讓讀者更好地學習和使用本書,本章將為讀者介紹本書的學習方法,包括:本書的學習順序、編寫規(guī)范、代碼規(guī)范、資料查找和學習
    發(fā)表于 08-28 17:57

    不平衡電網(wǎng)下基于功率的PWM整流器控制策略研究

    當三相輸入電壓不平衡時,在靜止坐標系下進行分析,一般都忽略了電流的,應用傳統(tǒng)比例諧振控制器時存在一個問題,即有功功率與無功功率的耦合嚴重。針對不平衡電網(wǎng)工況下PWM整流器有功及無功功率嚴重耦合
    的頭像 發(fā)表于 07-23 14:40 ?192次閱讀
    不平衡電網(wǎng)下基于功率<b class='flag-5'>解</b><b class='flag-5'>耦</b>的PWM整流器控制策略研究