一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ICML 2019的論文入選結(jié)果已經(jīng)出爐,你的論文中了嗎?

DPVg_AI_era ? 來(lái)源:lq ? 2019-04-24 09:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ICML 2019的錄取結(jié)果昨天已經(jīng)出爐,許多投稿者在Twitter發(fā)表“中了”的消息,新智元摘選了幾篇不錯(cuò)的ICML中獎(jiǎng)?wù)撐?,包括Ian Goodfellow等人的論文,一起來(lái)先睹為快吧!

昨天,ICML 2019的論文入選結(jié)果已經(jīng)出爐,你的論文中了嗎?

來(lái)自Reddit的討論貼

盡管完整錄取列表尚未公開(kāi),不過(guò)已經(jīng)有許多投稿者在Twitter發(fā)表“中了”的消息。

下面,新智元摘選了幾篇不錯(cuò)的ICML中獎(jiǎng)?wù)撐?,一起?lái)先睹為快吧。

5篇ICML 2019論文推薦

首先介紹來(lái)自加州大學(xué)圣地亞哥分校Yao Qin、Garrison Cottrell和前谷歌大腦Ian Goodfellow等人的論文,在這篇論文中,研究人員提出了語(yǔ)音識(shí)別的對(duì)抗樣本。

1、Imperceptible, Robust, and Targeted Adversarial Examples for Automatic Speech Recognition

https://arxiv.org/abs/1903.10346

作者:Yao Qin, Nicholas Carlini, Ian Goodfellow, Garrison Cottrell, Colin Raffel

對(duì)抗樣本(adversarial examples)是一種專門設(shè)計(jì)的輸入,其目的是使機(jī)器學(xué)習(xí)模型產(chǎn)生錯(cuò)誤的輸出。

對(duì)抗樣本在圖像領(lǐng)域已經(jīng)得到了廣泛的研究。在圖像領(lǐng)域中,可以通過(guò)對(duì)圖像進(jìn)行細(xì)微的修改來(lái)產(chǎn)生對(duì)抗樣本,從而導(dǎo)致分類錯(cuò)誤,這在物理世界中具有實(shí)用價(jià)值。

但是,目前應(yīng)用于語(yǔ)音識(shí)別系統(tǒng)的有針對(duì)性的對(duì)抗樣本卻缺乏這兩種特性:人類可以很容易地識(shí)別對(duì)抗性干擾,并在通過(guò)揚(yáng)聲器播放時(shí)它們并不生效。

本研究在這兩個(gè)方面都取得了進(jìn)展。首先,我們利用聽(tīng)覺(jué)掩碼(auditory masking)的心理聲學(xué)原理,在人類聽(tīng)不到的音頻區(qū)域添加對(duì)抗擾動(dòng),開(kāi)發(fā)出有效的、不易察覺(jué)的音頻對(duì)抗樣本(通過(guò)人類研究得到驗(yàn)證),同時(shí)對(duì)任意完整的句子保持100%的針對(duì)性成功率。

接下來(lái),我們通過(guò)構(gòu)造在應(yīng)用于真實(shí)的模擬環(huán)境扭曲后仍然有效的擾動(dòng),從而在物理世界的無(wú)線音頻對(duì)抗樣本方面取得了進(jìn)展。

2、TensorFuzz: Debugging Neural Networks with Coverage-Guided Fuzzing

https://arxiv.org/abs/1807.10875

作者:Augustus Odena, Ian Goodfellow

眾所周知,由于各種原因,機(jī)器學(xué)習(xí)模型難以調(diào)試(debug)或解釋。這造成了最近機(jī)器學(xué)習(xí)的 “可重復(fù)性危機(jī)”(reproducibility crisis)—— 對(duì)難以調(diào)試的技術(shù)做出可靠的實(shí)驗(yàn)結(jié)論是很棘手的。

神經(jīng)網(wǎng)絡(luò)又特別難以 debug,因?yàn)榧词故窍鄬?duì)直接的關(guān)于神經(jīng)網(wǎng)絡(luò)的形式問(wèn)題,解決的計(jì)算成本也很高,而且神經(jīng)網(wǎng)絡(luò)的軟件實(shí)現(xiàn)可能與理論模型有很大的差異。

在這項(xiàng)工作中,我們利用傳統(tǒng)軟件工程中的一種技術(shù) —— 覆蓋引導(dǎo)模糊測(cè)試(coverage guided fuzzing,CGF),并將其應(yīng)用于神經(jīng)網(wǎng)絡(luò)的測(cè)試。

具體來(lái)說(shuō),這項(xiàng)工作有以下貢獻(xiàn):

我們對(duì)神經(jīng)網(wǎng)絡(luò)引入了 CGF 的概念,并描述了如何用快速近似最近鄰算法( fast approximate nearest neighbors algorithms)以通用的方式檢查覆蓋率。

我們開(kāi)源了一個(gè)名為 TensorFuzz 的 CGF 軟件庫(kù)。

我們使用 TensorFuzz 在已訓(xùn)練的神經(jīng)網(wǎng)絡(luò)中查找數(shù)值問(wèn)題,在神經(jīng)網(wǎng)絡(luò)及其量化版本之間查找分歧,以及在字符級(jí)語(yǔ)言模型中查找不良行為。

圖:fuzzing 主循環(huán)的簡(jiǎn)略描述。左:模糊測(cè)試程序圖,表示數(shù)據(jù)的 flow。右:用算法的形式描述了模糊測(cè)試過(guò)程的主循環(huán)。

相關(guān)閱讀:

谷歌大腦開(kāi)源 TensorFuzz,自動(dòng) Debug 神經(jīng)網(wǎng)絡(luò)!

接下來(lái)介紹的論文來(lái)自羅格斯大學(xué)Han Zhang和Dimitris Metaxas,以及谷歌大腦的 Ian Goodfellow 和 Augustus Odena,在這篇論文中,他們提出“自注意力生成對(duì)抗網(wǎng)絡(luò)”(SAGAN),將自注意力機(jī)制(self-attention mechanism)引入到卷積 GAN 中,作為卷積的補(bǔ)充,取得了最優(yōu)的結(jié)果。

3、Self-Attention Generative Adversarial Networks

arxiv.org/abs/1805.08318

作者:Han Zhang, Ian Goodfellow, Dimitris Metaxas, Augustus Odena

在這篇論文中,我們提出自注意力生成對(duì)抗網(wǎng)絡(luò)( Self-Attention Generative Adversarial Network ,SAGAN)。SAGAN 允許對(duì)圖像生成任務(wù)進(jìn)行注意力驅(qū)動(dòng)、長(zhǎng)相關(guān)性的建模。傳統(tǒng)的卷積 GAN 生成的高分辨率細(xì)節(jié)僅作為在低分辨率特征圖上的空間局部點(diǎn)的函數(shù)。在 SAGAN 中,可以使用來(lái)自所有特征位置的線索來(lái)生成細(xì)節(jié)。此外,鑒別器可以檢查圖像的遠(yuǎn)端部分的高度詳細(xì)的特征彼此一致。此外,最近的研究表明,生成器條件會(huì)影響 GAN 的性能。

利用這些發(fā)現(xiàn),我們將譜歸一化到 GAN 生成器中,并發(fā)現(xiàn)這改進(jìn)了訓(xùn)練動(dòng)態(tài)。我們提出的 SAGAN 達(dá)到了最優(yōu)的結(jié)果,將 Inception score 從當(dāng)前最高的 36.8 提高到 52.52,并且在具有挑戰(zhàn)性的 ImageNet 數(shù)據(jù)集上將 Frechet Inception distance 從 27.62 降低到 18.65。注意力層的可視化表明,生成器利用與對(duì)象形狀相對(duì)應(yīng)的鄰域,而不是固定形狀的局部區(qū)域。

相關(guān)閱讀:

Ian Goodfellow 等提出自注意力 GAN,ImageNet 圖像合成獲最優(yōu)結(jié)果!

接下來(lái)推薦的論文來(lái)自東京大學(xué)的Kenta Oono和Taiji Suzuki,這篇論文有41頁(yè),對(duì)于會(huì)議論文來(lái)說(shuō)確實(shí)有點(diǎn)長(zhǎng)。

4、Approximation and Non-parametric Estimation of ResNet-type Convolutional Neural Networks

arxiv.org/abs/1903.10047

作者:Kenta Oono, Taiji Suzuki

卷積神經(jīng)網(wǎng)絡(luò)(CNNs)在多個(gè)函數(shù)類中均能達(dá)到最優(yōu)逼近和估計(jì)誤差率(在minimax意義上)。然而,由于包括Holder類在內(nèi)的重要函數(shù)類的稀疏約束,以往分析的最優(yōu)CNN的范圍過(guò)于廣泛,難以通過(guò)優(yōu)化獲得。

我們證明了一個(gè)ResNet類型的CNN可以在更合理的情況下在這些類別中獲得minimax最優(yōu)錯(cuò)誤率——它可以是密集的,它的寬度、通道大小和過(guò)濾器大小相對(duì)于樣本大小是恒定的。

其核心思想是,只要神經(jīng)網(wǎng)絡(luò)具有 extit{block-sparse}結(jié)構(gòu),我們就可以通過(guò)定制的CNN來(lái)復(fù)制全連接神經(jīng)網(wǎng)絡(luò)(FNN)的學(xué)習(xí)能力。從某種意義上說(shuō),我們的理論是通用的,我們可以自動(dòng)地將block-sparse FNN所實(shí)現(xiàn)的任何近似率轉(zhuǎn)換成CNN的近似率。作為應(yīng)用,我們使用相同策略推導(dǎo)出針對(duì)Barron類和H?lder類的CNN的近似誤差和估計(jì)誤差。

5、Imitation Learning from Imperfect Demonstration

https://arxiv.org/abs/1901.09387

作者:Yueh-Hua Wu, Nontawat Charoenphakdee, Han Bao, Voot Tangkaratt, Masashi Sugiyama

模仿學(xué)習(xí)(Imitation learning, IL)的目的是通過(guò)演示學(xué)習(xí)最優(yōu)策略。然而,由于收集最優(yōu)示例的成本很高,因此此類演示通常并不完美。為了有效地從不完美的演示中學(xué)習(xí),我們提出了一種新的方法,利用置信評(píng)分(confidence scores)來(lái)描述演示的質(zhì)量。更具體地說(shuō),我們提出了兩種基于confidence的IL方法,即兩步的重要性加權(quán)IL (2IWIL)和具有不完美演示和置信度的生成對(duì)抗性IL (IC-GAIL)。我們證明了,僅給出一小部分次優(yōu)演示的置信度得分在理論上和經(jīng)驗(yàn)上都顯著提高了 IL 的性能。

更多ICML 2019錄取論文

1、Heterogeneous Model Reuse via Optimizing Multiparty Multiclass Margin

作者:吳西竹,周志華,柳松

2、Importance Sampling Policy Evaluation with an Estimated Behavior Policy

arxiv.org/abs/1806.01347

作者:Josiah Hanna, Scott Niekum, Peter Stone

3、Extrapolating Beyond Suboptimal Demonstrations via Inverse Reinforcement Learning from Observations

arxiv.org/abs/1904.06387

作者:Daniel S. Brown, Wonjoon Goo, Prabhat Nagarajan, Scott Niekum

4、Global Convergence of Block Coordinate Descent in Deep Learning

arxiv.org/abs/1803.00225

作者:Jinshan Zeng, Tim Tsz-Kit Lau, Shaobo Lin, Yuan Yao

5、Learn-to-Grow for addressing Catastrophic Forgetting in Continual Machine Learning

https://arxiv.org/abs/1904.00310

作者:Xilai Li, Yingbo Zhou, Tianfu Wu, Richard Socher, Caiming Xiong

6、Imitating Latent Policies from Observation

https://arxiv.org/abs/1805.07914

Ashley D. Edwards,Himanshu Sahni,Yannick Schroecker,Charles L. Isbell

7、Using Pre-Training Can Improve Model Robustness and Uncertainty

arxiv.org/abs/1901.09960

作者:Dan Hendrycks, Kimin Lee, Mantas Mazeika

8、Hyperbolic Disk Embeddings for Directed Acyclic Graphs

arxiv.org/abs/1902.04335

作者:Ryota Suzuki, Ryusuke Takahama, Shun Onoda

9、Finding Options that Minimize Planning Time

arxiv.org/abs/1810.07311

作者:Yuu Jinnai, David Abel, D Ellis Hershkowitz, Michael Littman, George Konidaris

10、Discovering Options for Exploration by Minimizing Cover Time

https://arxiv.org/abs/1903.00606

作者:Yuu Jinnai, Jee Won Park, David Abel, George Konidaris

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103573
  • 語(yǔ)音識(shí)別
    +關(guān)注

    關(guān)注

    39

    文章

    1780

    瀏覽量

    114220
  • 論文
    +關(guān)注

    關(guān)注

    1

    文章

    103

    瀏覽量

    15210

原文標(biāo)題:ICML 2019錄取結(jié)果出爐,Ian Goodfellow等入選論文推薦

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    格靈深瞳六篇論文入選ICCV 2025

    近日,國(guó)際頂級(jí)會(huì)議ICCV 2025(計(jì)算機(jī)視覺(jué)國(guó)際大會(huì))公布論文錄用結(jié)果,格靈深瞳團(tuán)隊(duì)共有6篇論文入選
    的頭像 發(fā)表于 07-07 18:23 ?435次閱讀

    理想汽車八篇論文入選ICCV 2025

    近日,ICCV 2025(國(guó)際計(jì)算機(jī)視覺(jué)大會(huì))公布論文錄用結(jié)果,理想汽車共有8篇論文入選,其中5篇來(lái)自自動(dòng)駕駛團(tuán)隊(duì),3篇來(lái)自基座模型團(tuán)隊(duì)。ICCV作為計(jì)算機(jī)視覺(jué)領(lǐng)域的頂級(jí)學(xué)術(shù)會(huì)議,每?jī)?/div>
    的頭像 發(fā)表于 07-03 13:58 ?271次閱讀

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選ICML 2025

    ICML(International Conference on Machine Learning)是機(jī)器學(xué)習(xí)領(lǐng)域的頂級(jí)學(xué)術(shù)會(huì)議之一,由國(guó)際機(jī)器學(xué)習(xí)學(xué)會(huì)(IMLS)主辦,被中國(guó)計(jì)算機(jī)學(xué)會(huì)認(rèn)定為A類
    的頭像 發(fā)表于 06-16 09:23 ?653次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b><b class='flag-5'>ICML</b> 2025

    基于STM32藍(lán)牙控制小車系統(tǒng)設(shè)計(jì)(硬件+源代碼+論文)下載

    基于STM32藍(lán)牙控制小車系統(tǒng)設(shè)計(jì)(硬件+源代碼+論文)推薦下載!
    發(fā)表于 05-29 21:45

    后摩智能四篇論文入選三大國(guó)際頂會(huì)

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國(guó)際頂會(huì)收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國(guó)際頂會(huì),面向大模型的編碼、量化
    的頭像 發(fā)表于 05-29 15:37 ?365次閱讀

    云知聲四篇論文入選自然語(yǔ)言處理頂會(huì)ACL 2025

    結(jié)果正式公布。云知聲在此次國(guó)際學(xué)術(shù)盛會(huì)中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會(huì)論文(Main Paper)和2篇Findings。入選的4篇
    的頭像 發(fā)表于 05-26 14:15 ?553次閱讀
    云知聲四篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b>自然語(yǔ)言處理頂會(huì)ACL 2025

    老板必修課:如何用NotebookLM 在上下班路上吃透一篇科技論文?

    常必要的,這有助于我們理解技術(shù)邊界,更好地定義產(chǎn)品并做出更精準(zhǔn)的投資決策。 一,使用NotebookLM,隨身解讀科技論文 我經(jīng)常使用的解讀科技論文的工具是Notebook,只需要把科技論文丟給它,它即可以: 1. 自動(dòng)生成的摘
    的頭像 發(fā)表于 05-07 16:13 ?236次閱讀
    老板必修課:如何用NotebookLM 在上下班路上吃透一篇科技<b class='flag-5'>論文</b>?

    美報(bào)告:中國(guó)芯片研究論文全球領(lǐng)先

    據(jù)新華社報(bào)道,美國(guó)喬治敦大學(xué)“新興技術(shù)觀察項(xiàng)目(ETO)”3日在其網(wǎng)站發(fā)布一份報(bào)告說(shuō),2018年至2023年間,在全球發(fā)表的芯片設(shè)計(jì)和制造相關(guān)論文中,中國(guó)研究人員的論文數(shù)量遠(yuǎn)超其他國(guó)家,中國(guó)在高被
    的頭像 發(fā)表于 03-05 14:32 ?1100次閱讀

    后摩智能5篇論文入選國(guó)際頂會(huì)

    2025年伊始,后摩智能在三大國(guó)際頂會(huì)(AAAI、ICLR、DAC)中斬獲佳績(jī),共有5篇論文被收錄,覆蓋大語(yǔ)言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?760次閱讀
    后摩智能5篇<b class='flag-5'>論文</b><b class='flag-5'>入選</b>國(guó)際頂會(huì)

    OpenHarmony程序分析框架論文入選ICSE 2025

      近日,ICSE 2025軟件工程實(shí)踐Track放榜,面向OpenAtom OpenHarmony(以下簡(jiǎn)稱“OpenHarmony”)的ArkTS程序分析基礎(chǔ)框架--方舟程序分析器(論文題目為
    的頭像 發(fā)表于 01-02 13:41 ?1142次閱讀
    OpenHarmony程序分析框架<b class='flag-5'>論文</b><b class='flag-5'>入選</b>ICSE 2025

    商湯科技徐立論文再獲“時(shí)間檢驗(yàn)獎(jiǎng)”

    十幾年前的論文為何還能獲獎(jiǎng)?因?yàn)榻?jīng)過(guò)了時(shí)間的檢驗(yàn)。
    的頭像 發(fā)表于 12-12 10:23 ?650次閱讀

    經(jīng)緯恒潤(rùn)功能安全AI 智能體論文成功入選EMNLP 2024!

    近日,經(jīng)緯恒潤(rùn)在智能體(AIAgent)領(lǐng)域再獲佳績(jī),其論文《Aegis
    的頭像 發(fā)表于 10-18 08:00 ?707次閱讀
    經(jīng)緯恒潤(rùn)功能安全AI 智能體<b class='flag-5'>論文</b>成功<b class='flag-5'>入選</b>EMNLP 2024!

    地平線科研論文入選國(guó)際計(jì)算機(jī)視覺(jué)頂會(huì)ECCV 2024

    近日,地平線兩篇論文入選國(guó)際計(jì)算機(jī)視覺(jué)頂會(huì)ECCV 2024,自動(dòng)駕駛算法技術(shù)再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?1462次閱讀
    地平線科研<b class='flag-5'>論文</b><b class='flag-5'>入選</b>國(guó)際計(jì)算機(jī)視覺(jué)頂會(huì)ECCV 2024

    芯動(dòng)力科技論文入選ISCA 2024,與國(guó)際巨頭同臺(tái)交流研究成果

    近日,珠海市芯動(dòng)力科技有限公司團(tuán)隊(duì)攜手帝國(guó)理工、劍橋大學(xué)、清華大學(xué)、中山大學(xué)等頂尖學(xué)府的計(jì)算機(jī)架構(gòu)團(tuán)隊(duì),共同撰寫(xiě)的論文《Circular Reconfigurable Parallel
    的頭像 發(fā)表于 07-18 11:16 ?1061次閱讀
    芯動(dòng)力科技<b class='flag-5'>論文</b><b class='flag-5'>入選</b>ISCA 2024,與國(guó)際巨頭同臺(tái)交流研究成果

    谷歌DeepMind被曝抄襲開(kāi)源成果,論文中了頂流會(huì)議

    谷歌DeepMind一篇中了頂流新生代會(huì)議CoLM 2024的論文被掛了,瓜主直指其抄襲了一年前就掛在arXiv上的一項(xiàng)研究。開(kāi)源的那種。
    的頭像 發(fā)表于 07-16 18:29 ?869次閱讀
    谷歌DeepMind被曝抄襲開(kāi)源成果,<b class='flag-5'>論文</b>還<b class='flag-5'>中了</b>頂流會(huì)議