一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

蒸餾無(wú)分類器指導(dǎo)擴(kuò)散模型的方法

OpenCV學(xué)堂 ? 來(lái)源:OpenCV學(xué)堂 ? 作者:OpenCV學(xué)堂 ? 2022-10-13 10:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

斯坦福大學(xué)聯(lián)合谷歌大腦使用「兩步蒸餾方法」提升無(wú)分類器指導(dǎo)的采樣效率,在生成樣本質(zhì)量和采樣速度上都有非常亮眼的表現(xiàn)。

去噪擴(kuò)散概率模型(DDPM)在圖像生成、音頻合成、分子生成和似然估計(jì)領(lǐng)域都已經(jīng)實(shí)現(xiàn)了 SOTA 性能。同時(shí)無(wú)分類器(classifier-free)指導(dǎo)進(jìn)一步提升了擴(kuò)散模型的樣本質(zhì)量,并已被廣泛應(yīng)用在包括 GLIDE、DALL·E 2 和 Imagen 在內(nèi)的大規(guī)模擴(kuò)散模型框架中。

然而,無(wú)分類器指導(dǎo)的一大關(guān)鍵局限是它的采樣效率低下,需要對(duì)兩個(gè)擴(kuò)散模型評(píng)估數(shù)百次才能生成一個(gè)樣本。這一局限阻礙了無(wú)分類指導(dǎo)模型在真實(shí)世界設(shè)置中的應(yīng)用。盡管已經(jīng)針對(duì)擴(kuò)散模型提出了蒸餾方法,但目前這些方法不適用無(wú)分類器指導(dǎo)擴(kuò)散模型。

為了解決這一問(wèn)題,近日斯坦福大學(xué)和谷歌大腦的研究者在論文《On Distillation of Guided Diffusion Models》中提出使用兩步蒸餾(two-step distillation)方法來(lái)提升無(wú)分類器指導(dǎo)的采樣效率。

在第一步中,他們引入單一學(xué)生模型來(lái)匹配兩個(gè)教師擴(kuò)散模型的組合輸出;在第二步中,他們利用提出的方法逐漸地將從第一步學(xué)得的模型蒸餾為更少步驟的模型。

利用提出的方法,單個(gè)蒸餾模型能夠處理各種不同的指導(dǎo)強(qiáng)度,從而高效地對(duì)樣本質(zhì)量和多樣性進(jìn)行權(quán)衡。此外為了從他們的模型中采樣,研究者考慮了文獻(xiàn)中已有的確定性采樣器,并進(jìn)一步提出了隨機(jī)采樣過(guò)程。

研究者在 ImageNet 64x64 和 CIFAR-10 上進(jìn)行了實(shí)驗(yàn),結(jié)果表明提出的蒸餾模型只需 4 步就能生成在視覺上與教師模型媲美的樣本,并且在更廣泛的指導(dǎo)強(qiáng)度上只需 8 到 16 步就能實(shí)現(xiàn)與教師模型媲美的 FID/IS 分?jǐn)?shù),具體如下圖 1 所示。

此外,在 ImageNet 64x64 上的其他實(shí)驗(yàn)結(jié)果也表明了,研究者提出的框架在風(fēng)格遷移應(yīng)用中也表現(xiàn)良好。

方法介紹

接下來(lái)本文討論了蒸餾無(wú)分類器指導(dǎo)擴(kuò)散模型的方法( distilling a classifier-free guided diffusion model)。給定一個(gè)訓(xùn)練好的指導(dǎo)模型,即教師模型970d4384-4a3c-11ed-a3b6-dac502259ad0.png之后本文分兩步完成。

第一步引入一個(gè)連續(xù)時(shí)間學(xué)生模型9720de08-4a3c-11ed-a3b6-dac502259ad0.png,該模型具有可學(xué)習(xí)參數(shù)η_1,以匹配教師模型在任意時(shí)間步 t∈[0,1] 處的輸出。給定一個(gè)優(yōu)化范圍 [w_min, w_max],對(duì)學(xué)生模型進(jìn)行優(yōu)化:

973061e8-4a3c-11ed-a3b6-dac502259ad0.png

其中,97460e1c-4a3c-11ed-a3b6-dac502259ad0.png。為了合并指導(dǎo)權(quán)重 w,本文引入了一個(gè) w - 條件模型,其中 w 作為學(xué)生模型的輸入。為了更好地捕捉特征,本文還對(duì) w 應(yīng)用傅里葉嵌入。此外,由于初始化在模型性能中起著關(guān)鍵作用,因此本文初始化學(xué)生模型的參數(shù)與教師模型相同。

在第二步中,本文將離散時(shí)間步(discrete time-step)考慮在內(nèi),并逐步將第一步中的蒸餾模型976a42dc-4a3c-11ed-a3b6-dac502259ad0.png轉(zhuǎn)化為步數(shù)較短的學(xué)生模型977da4a8-4a3c-11ed-a3b6-dac502259ad0.png,其可學(xué)習(xí)參數(shù)為η_2,每次采樣步數(shù)減半。設(shè) N 為采樣步數(shù),給定 w ~ U[w_min, w_max] 和 t∈{1,…, N},然后根據(jù) Salimans & Ho 等人提出的方法訓(xùn)練學(xué)生模型。在將教師模型中的 2N 步蒸餾為學(xué)生模型中的 N 步之后,之后使用 N 步學(xué)生模型作為新的教師模型,這個(gè)過(guò)程不斷重復(fù),直到將教師模型蒸餾為 N/2 步學(xué)生模型。

N 步可確定性和隨機(jī)采樣:一旦模型979522b8-4a3c-11ed-a3b6-dac502259ad0.png訓(xùn)練完成,給定一個(gè)指定的 w ∈ [w_min, w_max],然后使用 DDIM 更新規(guī)則執(zhí)行采樣。

實(shí)際上,本文也可以執(zhí)行 N 步隨機(jī)采樣,使用兩倍于原始步長(zhǎng)的確定性采樣步驟,然后使用原始步長(zhǎng)向后執(zhí)行一個(gè)隨機(jī)步驟 。對(duì)于97a8d538-4a3c-11ed-a3b6-dac502259ad0.png,當(dāng) t > 1/N 時(shí),本文使用以下更新規(guī)則

97b46010-4a3c-11ed-a3b6-dac502259ad0.png

實(shí)驗(yàn)

實(shí)驗(yàn)評(píng)估了蒸餾方法的性能,本文主要關(guān)注模型在 ImageNet 64x64 和 CIFAR-10 上的結(jié)果。他們探索了指導(dǎo)權(quán)重的不同范圍,并觀察到所有范圍都具有可比性,因此實(shí)驗(yàn)采用 [w_min, w_max] = [0, 4]。圖 2 和表 1 報(bào)告了在 ImageNet 64x64 上所有方法的性能。

97dbcd80-4a3c-11ed-a3b6-dac502259ad0.png

984c2594-4a3c-11ed-a3b6-dac502259ad0.png

本文還進(jìn)行了如下實(shí)驗(yàn)。具體來(lái)說(shuō),為了在兩個(gè)域 A 和 B 之間執(zhí)行風(fēng)格遷移,本文使用在域 A 上訓(xùn)練的擴(kuò)散模型對(duì)來(lái)自域 A 的圖像進(jìn)行編碼,然后使用在域 B 上訓(xùn)練的擴(kuò)散模型進(jìn)行解碼。由于編碼過(guò)程可以理解為反向 DDIM 采樣過(guò)程,本文在無(wú)分類器指導(dǎo)下對(duì)編碼器和解碼器進(jìn)行蒸餾,并與下圖 3 中的 DDIM 編碼器和解碼器進(jìn)行比較。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3808

    瀏覽量

    138081
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50439
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13451

原文標(biāo)題:采樣提速256倍,蒸餾擴(kuò)散模型生成圖像質(zhì)量媲美教師模型,只需4步

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于擴(kuò)散模型的圖像生成過(guò)程

    近年來(lái),擴(kuò)散模型在文本到圖像生成方面取得了巨大的成功,實(shí)現(xiàn)了更高圖像生成質(zhì)量,提高了推理性能,也可以激發(fā)擴(kuò)展創(chuàng)作靈感。 不過(guò)僅憑文本來(lái)控制圖像的生成往往得不到想要的結(jié)果,比如具體的人物姿勢(shì)、面部表情
    的頭像 發(fā)表于 07-17 11:00 ?3556次閱讀
    基于<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的圖像生成過(guò)程

    傳感的故障分類與診斷方法

    最大值;漂移故障,信號(hào)以某一速率偏移原信號(hào);周期性干擾故障,原信號(hào)上疊加某一頻率的信號(hào)。傳感故障的診斷方法從不同角度出發(fā),故障診斷方法分類不完全相同。現(xiàn)簡(jiǎn)單地將故障診斷
    發(fā)表于 10-30 15:57

    基于優(yōu)化SVM模型的網(wǎng)絡(luò)負(fù)面信息分類方法研究

    基于優(yōu)化SVM模型的網(wǎng)絡(luò)負(fù)面信息分類方法研究_鄭金芳
    發(fā)表于 01-07 18:56 ?0次下載

    基于非參數(shù)方法分類模型檢驗(yàn)

    本文主要研究了基于非參數(shù)方法分類模型交叉驗(yàn)證結(jié)果比較,主要是對(duì)實(shí)例通過(guò)非參數(shù)的方法進(jìn)行模型比較的假設(shè)檢驗(yàn),檢驗(yàn)兩
    發(fā)表于 12-08 15:28 ?1次下載

    針對(duì)遙感圖像場(chǎng)景分類的多粒度特征蒸餾方法

    嵌入式設(shè)備上的應(yīng)用。提出一種針對(duì)遙感圖像場(chǎng)景分類的多粒度特征蒸餾方法,將深度網(wǎng)絡(luò)不同階段的特征與最終的類別概率同時(shí)作為淺層模型的監(jiān)督信號(hào),使得淺層
    發(fā)表于 03-11 17:18 ?20次下載
    針對(duì)遙感圖像場(chǎng)景<b class='flag-5'>分類</b>的多粒度特征<b class='flag-5'>蒸餾</b><b class='flag-5'>方法</b>

    如何改進(jìn)和加速擴(kuò)散模型采樣的方法1

      盡管擴(kuò)散模型實(shí)現(xiàn)了較高的樣本質(zhì)量和多樣性,但不幸的是,它們?cè)诓蓸铀俣确矫娲嬖诓蛔?。這限制了擴(kuò)散模型在實(shí)際應(yīng)用中的廣泛采用,并導(dǎo)致了從這些模型
    的頭像 發(fā)表于 05-07 14:25 ?2759次閱讀
    如何改進(jìn)和加速<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>采樣的<b class='flag-5'>方法</b>1

    如何改進(jìn)和加速擴(kuò)散模型采樣的方法2

      事實(shí)上,擴(kuò)散模型已經(jīng)在深層生成性學(xué)習(xí)方面取得了重大進(jìn)展。我們預(yù)計(jì),它們可能會(huì)在圖像和視頻處理、 3D 內(nèi)容生成和數(shù)字藝術(shù)以及語(yǔ)音和語(yǔ)言建模等領(lǐng)域得到實(shí)際應(yīng)用。它們還將用于藥物發(fā)現(xiàn)和材料設(shè)計(jì)等領(lǐng)域,以及其他各種重要應(yīng)用。我們認(rèn)為,基于
    的頭像 發(fā)表于 05-07 14:38 ?3683次閱讀
    如何改進(jìn)和加速<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>采樣的<b class='flag-5'>方法</b>2

    若干蒸餾方法之間的細(xì)節(jié)以及差異

    以往的知識(shí)蒸餾雖然可以有效的壓縮模型尺寸,但很難將teacher模型的能力蒸餾到一個(gè)更小詞表的student模型中,而DualTrain+S
    的頭像 發(fā)表于 05-12 11:39 ?1781次閱讀

    如何度量知識(shí)蒸餾中不同數(shù)據(jù)增強(qiáng)方法的好壞?

    知識(shí)蒸餾(knowledge distillation,KD)是一種通用神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,它使用大的teacher模型來(lái) “教” student模型,在各種AI任務(wù)上有著廣泛應(yīng)用。
    的頭像 發(fā)表于 02-25 15:41 ?1284次閱讀

    蒸餾也能Step-by-Step:新方法讓小模型也能媲美2000倍體量大模型

    為了解決大型模型的這個(gè)問(wèn)題,部署者往往采用小一些的特定模型來(lái)替代。這些小一點(diǎn)的模型用常見范式 —— 微調(diào)或是蒸餾來(lái)進(jìn)行訓(xùn)練。微調(diào)使用下游的人類注釋數(shù)據(jù)升級(jí)一個(gè)預(yù)訓(xùn)練過(guò)的小
    的頭像 發(fā)表于 05-15 09:35 ?961次閱讀
    <b class='flag-5'>蒸餾</b>也能Step-by-Step:新<b class='flag-5'>方法</b>讓小<b class='flag-5'>模型</b>也能媲美2000倍體量大<b class='flag-5'>模型</b>

    如何加速生成2 PyTorch擴(kuò)散模型

    加速生成2 PyTorch擴(kuò)散模型
    的頭像 發(fā)表于 09-04 16:09 ?1470次閱讀
    如何加速生成2 PyTorch<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>

    任意模型都能蒸餾!華為諾亞提出異構(gòu)模型的知識(shí)蒸餾方法

    相比于僅使用logits的蒸餾方法,同步使用模型中間層特征進(jìn)行蒸餾方法通常能取得更好的性能。然而在異構(gòu)
    的頭像 發(fā)表于 11-01 16:18 ?1756次閱讀
    任意<b class='flag-5'>模型</b>都能<b class='flag-5'>蒸餾</b>!華為諾亞提出異構(gòu)<b class='flag-5'>模型</b>的知識(shí)<b class='flag-5'>蒸餾</b><b class='flag-5'>方法</b>

    擴(kuò)散模型的理論基礎(chǔ)

    擴(kuò)散模型的迅速崛起是過(guò)去幾年機(jī)器學(xué)習(xí)領(lǐng)域最大的發(fā)展之一。在這本簡(jiǎn)單易懂的指南中,學(xué)習(xí)你需要知道的關(guān)于擴(kuò)散模型的一切。
    的頭像 發(fā)表于 10-28 09:30 ?1390次閱讀
    <b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的理論基礎(chǔ)

    基于移動(dòng)自回歸的時(shí)序擴(kuò)散預(yù)測(cè)模型

    在人工智能領(lǐng)域,目前有很多工作采用自回歸方法來(lái)模擬或是替代擴(kuò)散模型,其中視覺自回歸建模(Visual AutoRegressive modeling,簡(jiǎn)稱 VAR)就是其中的典型代表,該工作利用自
    的頭像 發(fā)表于 01-03 14:05 ?896次閱讀
    基于移動(dòng)自回歸的時(shí)序<b class='flag-5'>擴(kuò)散</b>預(yù)測(cè)<b class='flag-5'>模型</b>

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    近日,摩爾線程智能科技(北京)有限責(zé)任公司在其官方渠道發(fā)布了一則重要消息,宣布公司已經(jīng)成功實(shí)現(xiàn)了對(duì)DeepSeek蒸餾模型推理服務(wù)的部署。這一技術(shù)突破,標(biāo)志著摩爾線程在人工智能領(lǐng)域邁出了堅(jiān)實(shí)的一步
    的頭像 發(fā)表于 02-06 13:49 ?823次閱讀