一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ICLR 2019共接收1591篇投稿,創(chuàng)下歷年新高

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-11-08 09:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ICLR 2019論文評審結(jié)果已經(jīng)公布,相比沸沸揚揚的NIPS評審爭議,ICLR的評審結(jié)果沒有出現(xiàn)太多爭論。我們整理介紹了目前平均分≥8分,排名前6的論文,包括備受關(guān)注的最強圖像生成器BigGAN等。

ICLR 2019共接收1591篇投稿,創(chuàng)下歷年新高。

至于錄取率,目前還沒有官方公布。從ICLR 2018的情況來看,平均分達到6.57可以被接收,Top 33%的論文可以被接收為poster或talk。但今年的投稿量比去年多得多,去年是996篇,因此預(yù)計接收比率會降低。

Rebuttal和討論的期間是11月5日到11月21日,這期間作者可以回復(fù)評審人的評論,并對論文進行修改。

有人做了一個網(wǎng)站:https://chillee.github.io,列舉了得分前200的論文和它們的得分。

大部分論文處于4~6.5分之間,論文平均得分分布如下(數(shù)據(jù)來自chillee.github.io):

投稿論文涉及最多的關(guān)鍵詞是強化學(xué)習(xí)、GAN、生成模型、優(yōu)化、無監(jiān)督學(xué)習(xí)、 表示學(xué)習(xí)等。

ICLR 2019關(guān)鍵詞分布(點擊圖片可放大)

截至11月5日,大部分論文已經(jīng)收到全部Review,部分已公布1或2個Review,其余也將在接下來幾天陸續(xù)放出。

或喜或憂,評審結(jié)果爭議不大

目前來看,關(guān)于ICLR評審結(jié)果的反饋沒有太多爭論。

有Reddit用戶表示:“我不得不說,今年ICLR的評審比NIPS的要好得多。至少,到目前為止,在我關(guān)注的領(lǐng)域我還沒有看到任何ICLR的愚蠢評論。確實,有時評審人會漏看一些論文的瑕疵。但總會有另一個評審人指出來。而且,你可以通過添加公共評論來指出你希望評審人注意到的問題。”

當(dāng)然,也有人認為ICLR匿名評審有相當(dāng)大“賭運氣”的成分。

有Reddit用戶寫道:

評審人1反復(fù)說 Relativistic GAN只是對系統(tǒng)進行小改進(a tweak),說我的整個方法部分都是“錯誤的”或者“寫得不好”。他的給分是3/10,置信度是2/5。其他評審人給我的論文的評價是“寫得很好”,給分是6/10 和 7/10。

所以說,評審?fù)耆且粓鲑€博。這太令人沮喪了!

有人表示同病相憐:

我得到了類似的結(jié)果。一位評審人剛說“你的論文需要重寫”,并給了一個超級低的分數(shù)3/10,他的置信度是2/5。第二位審稿人認真閱讀了論文,認真寫了評論,包括指出我論文的優(yōu)點和缺陷,最后給的分數(shù)是8/10,他的置信度是4/5。現(xiàn)在我還在等待第三位評審人......這是好事還是壞事,我真的不知道該怎么想了......

也有人提出理性的建議:

我建議你們將會議視為一種“必須申請的免費推廣機會”,它會對已經(jīng)很好的論文有幫助,但評分多少并沒有論文的實際影響那么重要。如果以后每個人都開始使用你的relativistic GAN,那么它在哪里發(fā)表實際上是無關(guān)緊要的(比如GAN、WGAN、AlphaGo,無論在哪里、發(fā)表與否,都無法否認它們是偉大的工作這一事實)。

下面,我們選取ICLR 2019目前得分排名前6(≥8.00)的論文作簡要介紹。

高分論文Top 6:BigGAN、逆強化學(xué)習(xí)、后驗推理等

高分論文1:Large Scale GAN Training for High Fidelity Natural Image Synthesis

得分:8.45(8,7,10)

在介紹這篇論文之前,讓我們先看下面這些圖片,請猜猜看,其中哪些是AI生成的假圖片,哪些是真實的圖片:

答案是,以上全部是GAN生成的假圖片!

這些圖片來自引起熱議的論文“BigGAN”。GAN生成圖像的論文很多,有很多也達到足以以假亂真、“效果驚艷”的水平,但BigGAN再次讓學(xué)界驚嘆,它直接將圖像生成的指標(biāo)“Inception Score”提高到166.3,比之前的最好分數(shù)提高了兩倍。

雖然是匿名提交,不過作者也在arXiv上上傳了這篇論文,因此我們得知它的作者:來自英國赫瑞瓦特大學(xué)的Andrew Brock,以及來自DeepMind的Jeff Donahue和Karen Simonyan。

摘要

盡管最近的研究在生成圖像建模方面取得了不少進展,但從ImageNet這樣的復(fù)雜數(shù)據(jù)集中成功生成高分辨率、多樣化的樣本仍然是一個難以實現(xiàn)的目標(biāo)。為此,我們訓(xùn)練了迄今為止規(guī)模最大的生成對抗網(wǎng)絡(luò),并研究了這種規(guī)模的不穩(wěn)定性。我們發(fā)現(xiàn),對生成器應(yīng)用正交正則化可以使其適用于簡單的“截斷技巧”(truncation trick),通過截斷潛在空間,可以精確地控制樣本保真度和多樣性之間的權(quán)衡。我們的修改導(dǎo)致模型在以類別為條件的圖像合成任務(wù)中達到新的最優(yōu)水平。在ImageNet上以128x128分辨率進行訓(xùn)練時,我們的模型(BigGAN)的Inception Score (IS) 為166.3, Frechet Inception Distance (FID)為9.6,之前的最優(yōu)IS為52.52,F(xiàn)ID為18.65。

關(guān)鍵詞:GANs, 生成模型, 大規(guī)模訓(xùn)練,深度學(xué)習(xí)

一句話簡介:GANs受益于大規(guī)模訓(xùn)練

論文地址:

https://openreview.net/pdf?id=B1xsqj09Fm

高分論文2:Variational Discriminator Bottleneck: Improving Imitation Learning, Inverse RL, and GANs by Constraining Information Flow

得分:8.20(6,10,8)

摘要

對抗性學(xué)習(xí)方法已經(jīng)得到廣泛應(yīng)用,但是對抗性模型的訓(xùn)練是出了名的不穩(wěn)定。有效地平衡生成器和鑒別器的性能是至關(guān)重要的,因為一個鑒別器如果達到很高的精度,就會產(chǎn)生相對不提供信息的梯度。在這項工作中,我們提出了一種簡單而通用的技術(shù),通過信息瓶頸(information bottleneck)來約束鑒別器中的信息流。通過對觀測值與鑒別器內(nèi)部表示之間的相互信息進行約束,我們可以有效地調(diào)節(jié)鑒別器的準確度,并保持有用且信息豐富的梯度。

我們證明了我們提出的變分鑒別器瓶頸(VDB)導(dǎo)致對抗性學(xué)習(xí)算法在三個不同應(yīng)用領(lǐng)域得到顯著改進。我們的初步評估研究了VDB對動態(tài)連續(xù)控制技能(如跑步)的模擬學(xué)習(xí)的適用性。我們的研究表明,該方法可以直接從原始視頻演示中學(xué)習(xí)這些技能,大大優(yōu)于以前的對抗性模仿學(xué)習(xí)方法。VDB還可以與對抗性逆強化學(xué)習(xí)相結(jié)合,以學(xué)習(xí)可在新設(shè)置中轉(zhuǎn)移和重新優(yōu)化的獎勵函數(shù)。最后,我們證明了VDB可以更有效地訓(xùn)練GAN生成圖像,改進了之前的一些穩(wěn)定方法。

關(guān)鍵詞:強化學(xué)習(xí),生成對抗網(wǎng)絡(luò),模仿學(xué)習(xí),逆強化學(xué)習(xí),信息瓶頸

一句話簡介:通過信息瓶頸規(guī)范對抗性學(xué)習(xí),應(yīng)用于模仿學(xué)習(xí)、逆向強化學(xué)習(xí)和生成對抗網(wǎng)絡(luò)。

論文地址:

https://openreview.net/pdf?id=HyxPx3R9tm

高分論文3:ALISTA: Analytic Weights Are As Good As Learned Weights in LISTA

得分:8.15(10,6,8)

摘要

基于展開迭代算法的深度神經(jīng)網(wǎng)絡(luò),例如,LISTA(earned iterative shrinkage thresholding algorithm),在稀疏信號恢復(fù)方面已經(jīng)取得了經(jīng)驗上的成功。目前,這些神經(jīng)網(wǎng)絡(luò)的權(quán)重由數(shù)據(jù)驅(qū)動的“黑盒”訓(xùn)練確定。在這項工作中,我們提出了分析LISTA(ALISTA),其中LISTA中的權(quán)重矩陣被計算為一個無數(shù)據(jù)優(yōu)化問題的解決方案,只將步長和閾值參數(shù)留給數(shù)據(jù)驅(qū)動的學(xué)習(xí)。這顯著簡化了訓(xùn)練。具體而言,無數(shù)據(jù)優(yōu)化問題是基于一致性最小化的。我們證明ALISTA保留了在(Chen et al.,2018)中證明的最佳線性收斂,并且具有與LISTA相當(dāng)?shù)男阅堋4送?,我們將ALISTA擴展到卷積線性算子,同樣以無數(shù)據(jù)的方式確定。我們還提出了一種前饋框架,結(jié)合無數(shù)據(jù)優(yōu)化和端到端的ALISTA網(wǎng)絡(luò),可以聯(lián)合訓(xùn)練以獲得編碼模型的魯棒性。

關(guān)鍵詞:稀疏恢復(fù),神經(jīng)網(wǎng)絡(luò)

論文地址:

https://openreview.net/pdf?id=B1lnzn0ctQ

高分論文4:Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks

得分:8.09(9,7,8)

摘要

遞歸神經(jīng)網(wǎng)絡(luò)(RNN)模型廣泛用于處理由潛在樹結(jié)構(gòu)控制的序列數(shù)據(jù)。以前的工作表明,RNN模型(特別是基于長短期記憶LSTM的模型)可以學(xué)習(xí)利用底層樹結(jié)構(gòu)。但是,它的性能始終落后于基于樹的模型。這項工作提出了一種新的歸納偏差有序神經(jīng)元(inductive bias Ordered Neurons),它強制執(zhí)行隱藏狀態(tài)神經(jīng)元之間更新頻率的順序。我們證明有序神經(jīng)元可以將潛在樹結(jié)構(gòu)明確地整合到循環(huán)模型中。為此,我們提出了一個新的RNN單元:ON-LSTM,它在四個不同的任務(wù)上取得了良好的性能:語言建模、無監(jiān)督解析、有針對性的句法評估和邏輯推理。

關(guān)鍵詞:深度學(xué)習(xí),自然語言處理,遞歸神經(jīng)網(wǎng)絡(luò),語言建模

一句話簡介:我們提出一種新的歸納偏差,將樹結(jié)構(gòu)集成在遞歸神經(jīng)網(wǎng)絡(luò)中。

論文地址:

https://openreview.net/pdf?id=B1l6qiR5F7

高分論文5:Slimmable Neural Networks

得分:8.08(8,9,7)

摘要

我們提出一種簡單而通用的方法來訓(xùn)練可執(zhí)行不同寬度(一個layer中的通道數(shù))的單個神經(jīng)網(wǎng)絡(luò),從而允許在運行時進行即時且自適應(yīng)的精確度 - 效率權(quán)衡(accuracy-efficiency trade-offs)。

訓(xùn)練好的網(wǎng)絡(luò)被稱為slimmable神經(jīng)網(wǎng)絡(luò),與MobileNet v1、MobileNet v2、ShuffleNet和ResNet-50等單獨訓(xùn)練的模型相比,slimmable模型分別在不同的寬度上實現(xiàn)了相似(許多情況下甚至更好)的ImageNet分類精度。在許多任務(wù)中,與單個模型相比,slimmable模型有更好的性能,包括COCO邊界框?qū)ο髾z測、實例分割和人體關(guān)鍵點檢測,而且無需調(diào)整超參數(shù)。

最后,我們進行了可視化,并討論了slimmable 網(wǎng)絡(luò)的學(xué)習(xí)特性。代碼和模型將會開源。

關(guān)鍵詞:Slimmable neural networks,移動端深度學(xué)習(xí), accuracy-efficiency權(quán)衡

一句話簡介:我們提出一種簡單而通用的方法來訓(xùn)練可執(zhí)行不同寬度(層中的通道數(shù))的單個神經(jīng)網(wǎng)絡(luò),允許在運行時進行即時和自適應(yīng)的accuracy-efficiency權(quán)衡。

論文地址:

https://openreview.net/pdf?id=H1gMCsAqY7

高分論文6:Posterior Attention Models for Sequence to Sequence Learning

得分:8.00(8,9,7)

摘要

現(xiàn)代神經(jīng)網(wǎng)絡(luò)架構(gòu)嚴重依賴于將結(jié)構(gòu)化輸入映射到序列的注意力機制(attention)。在本文中,我們表明普遍的注意力架構(gòu)不能充分建模注意力和輸出變量之間沿預(yù)測序列長度的依賴性。

我們提出一種新的替代架構(gòu),稱為后驗注意力模型(Posterior Attention Models)。它基于注意力和輸出變量的完全聯(lián)合分布的原則分解,提出了兩個主要的變化:

首先,注意力被邊緣化的位置從輸入變成了輸出。其次,傳播到下一個解碼階段的注意力是一個以輸出為條件的后驗注意力分布。

在5個翻譯任務(wù)和2個形態(tài)學(xué)變換任務(wù)中,后驗注意力模型比現(xiàn)有的注意力模型產(chǎn)生了更好的預(yù)測準確性和對齊精度。

關(guān)鍵詞:后驗推理,attention,seq2seq learning,翻譯

一句話簡介:基于后驗分布的計算注意力機制可以得到更有意義的attention和更好的表現(xiàn)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103573
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2207

    瀏覽量

    76780
  • 強化學(xué)習(xí)
    +關(guān)注

    關(guān)注

    4

    文章

    269

    瀏覽量

    11597

原文標(biāo)題:ICLR 2019評審結(jié)果出爐!一文看全平均8分論文

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    后摩智能四論文入選三大國際頂會

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國際頂會收錄 5 論文后,后摩智能近期又有 4 論文入選CVPR、ICML、ACL三大國際頂會,面向大模型的編碼、量化、壓縮與微調(diào)等技術(shù)難題提出創(chuàng)新性解決方案,為
    的頭像 發(fā)表于 05-29 15:37 ?365次閱讀

    零死角玩轉(zhuǎn)STM32——系統(tǒng)

    本文4冊,由于資料內(nèi)存過大,分開上傳,有需要的朋友可以去主頁搜索下載哦~ 《零死角玩轉(zhuǎn) STM32》系列教程由初級、中級、高級、系統(tǒng)
    發(fā)表于 05-21 14:08

    零死角玩轉(zhuǎn)STM32——高級

    本文4冊,由于資料內(nèi)存過大,分開上傳,有需要的朋友可以去主頁搜索下載哦~ 《零死角玩轉(zhuǎn) STM32》系列教程由初級、中級、高級、系統(tǒng)
    發(fā)表于 05-21 14:02

    零死角玩轉(zhuǎn)STM32——中級

    本文4冊,由于資料內(nèi)存過大,分開上傳,有需要的朋友可以去主頁搜索下載哦~ 《零死角玩轉(zhuǎn) STM32》系列教程由初級、中級、高級、系統(tǒng)
    發(fā)表于 05-21 13:56

    零死角玩轉(zhuǎn)STM32——初級

    本文4冊,由于資料內(nèi)存過大,分開上傳,有需要的朋友可以去主頁搜索下載哦~ 《零死角玩轉(zhuǎn) STM32》系列教程由初級、中級、高級、系統(tǒng)
    發(fā)表于 05-21 13:48

    安森美SiC JFET柵結(jié)構(gòu)詳解

    安森美 (onsemi)cascode FET (碳化硅柵場效應(yīng)晶體管)在硬開關(guān)和軟開關(guān)應(yīng)用中有諸多優(yōu)勢,SiC JFET cascode應(yīng)用指南講解了柵(cascode)
    的頭像 發(fā)表于 03-26 17:42 ?1272次閱讀
    安森美SiC JFET<b class='flag-5'>共</b>源<b class='flag-5'>共</b>柵結(jié)構(gòu)詳解

    后摩智能5論文入選國際頂會

    2025年伊始,后摩智能在三大國際頂會(AAAI、ICLR、DAC)中斬獲佳績,共有5論文被收錄,覆蓋大語言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?760次閱讀
    后摩智能5<b class='flag-5'>篇</b>論文入選國際頂會

    高通Q1業(yè)績創(chuàng)歷史新高,手機與汽車芯片表現(xiàn)搶眼

    移動芯片大廠高通(Qualcomm)公司于近日公布了其2025會計年度第一季(截至2024年12月29日)的財報,業(yè)績表現(xiàn)出色,創(chuàng)下歷史同期新高。
    的頭像 發(fā)表于 02-08 15:48 ?534次閱讀

    鴻海2024年營收創(chuàng)新高,同比增長11.37%

    ,與去年同期相比,增長率高達11.37%。 這一數(shù)字不僅標(biāo)志著鴻海在2024年度取得了顯著的營收增長,也創(chuàng)下歷年同期的新高。作為全球領(lǐng)先的電子制造服務(wù)商,鴻海在電子產(chǎn)品制造領(lǐng)域擁有舉足輕重的地位,其業(yè)績表現(xiàn)一直備受業(yè)界關(guān)注。
    的頭像 發(fā)表于 01-06 14:22 ?935次閱讀

    臺積電2025年將全球建十座廠,資本支出創(chuàng)歷史新高

    據(jù)臺媒報道,臺積電在半導(dǎo)體業(yè)界的擴張步伐再次加速。2025年,包含在建與新建廠案,臺積電海內(nèi)外建廠總數(shù)將達到10個,這一數(shù)字不僅創(chuàng)下了該公司歷史新高,更在全球范圍內(nèi)樹立了半導(dǎo)體業(yè)同時推進10個廠建設(shè)的新紀錄。
    的頭像 發(fā)表于 11-19 17:34 ?1228次閱讀

    FormFactor發(fā)布2024財年第三季度財報,收入創(chuàng)歷史新高

    FormFactor公司于10月30日公布了其截至2024年9月28日的2024財年第三季度財務(wù)報告。報告顯示,F(xiàn)ormFactor在該季度的收入達到了2.079億美元,不僅創(chuàng)下了公司的歷史新高,還實現(xiàn)了環(huán)比增長5.3%和同比增長21.2%的佳績。
    的頭像 發(fā)表于 11-01 15:01 ?1239次閱讀

    三星電子第三季度業(yè)績創(chuàng)新高

    三星電子近日發(fā)布了第三季度業(yè)績報告,數(shù)據(jù)顯示公司整體業(yè)績呈現(xiàn)出強勁的增長態(tài)勢。據(jù)最終核實,公司第三季度營業(yè)利潤同比增長了277.37%,達到了9.1834萬億韓元,創(chuàng)下了歷史新高。
    的頭像 發(fā)表于 10-31 17:14 ?816次閱讀

    英偉達市值逼近蘋果,股價創(chuàng)歷史新高

    近日,英偉達公司再次成為全球股市的焦點。其股價在10月21日當(dāng)天創(chuàng)下歷史新高,市值成功突破3.5萬億美元大關(guān),直逼目前全球市值第一的蘋果公司。
    的頭像 發(fā)表于 10-22 17:03 ?544次閱讀

    臺積電第三季度業(yè)績超預(yù)期,股價創(chuàng)歷史新高

    近日,臺積電(TSMC)在美股市場大放異彩,周四收盤時股價大漲超過9.79%,創(chuàng)下歷史新高,市值更是達到了驚人的1.07萬億美元。這一強勢表現(xiàn)主要得益于臺積電剛剛披露的第三季度業(yè)績,其表現(xiàn)大幅超出了市場的預(yù)期。
    的頭像 發(fā)表于 10-18 16:43 ?764次閱讀

    美股再創(chuàng)新高,蘋果股價續(xù)寫輝煌

     在7月17日凌晨的交易中,美國股市再次展現(xiàn)出其強勁的勢頭,三大主要指數(shù)——道指、標(biāo)普500指數(shù)以及納指集體收漲,其中道指與標(biāo)普500指數(shù)更是雙雙創(chuàng)下了歷史收盤新高。這一消息無疑為全球投資者注入了新的信心與動力。
    的頭像 發(fā)表于 07-17 14:35 ?631次閱讀