一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

講真,AI研究發(fā)表和模型開源,真的該制定一個(gè)規(guī)范了

DPVg_AI_era ? 來源:lq ? 2019-02-24 10:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學(xué)習(xí)界“最敢說的人”Yann LeCun再次放話,不過今天是提問:要是他早先能夠預(yù)料到如今CNN被濫用,比如制作DeepFake換臉假視頻,他當(dāng)初還該不該開源CNN?講真,AI研究發(fā)表和模型開源,真的該制定一個(gè)規(guī)范了。

Yann LeCun今天在Twitter上提問:

講真,要是當(dāng)初知道卷積神經(jīng)網(wǎng)絡(luò)(CNN)會(huì)催生DeepFake,我們還要不要發(fā)表CNN?

LeCun說:“問個(gè)嚴(yán)肅的問題:卷積神經(jīng)網(wǎng)絡(luò)(CNN)被用于(或開發(fā))各種各樣的應(yīng)用。很多這樣的應(yīng)用對世界起到了積極影響,例如,醫(yī)療影像、汽車安全、內(nèi)容過濾、環(huán)境監(jiān)控等等。

“但有的應(yīng)用則可能起到負(fù)面的效果,或者說侵犯隱私,例如,公眾場所的人臉識(shí)別系統(tǒng)、進(jìn)攻性武器,以及有偏見的“過濾”系統(tǒng)……

“那么,假設(shè)在上世紀(jì)80年代那時(shí)我們能夠預(yù)見CNN的這些負(fù)面影響,我們該不該把CNN模型保密不公開呢?

“幾點(diǎn)想法:

最終,CNN(或者類似的東西)還是會(huì)被其他人發(fā)明出來(實(shí)際上,有些人可以說差不多已經(jīng)做到了)。其實(shí),福島邦彥就跟我說,他80年代末的時(shí)候正在研究一種用BP訓(xùn)練的新認(rèn)知機(jī)(Neocogitron),但看到我們1989年發(fā)表的神經(jīng)計(jì)算論文“大感震驚”(shocked),然后停止了他的項(xiàng)目。

開源CNN或深度學(xué)習(xí)軟件平臺(tái)直到2002年才出現(xiàn)(CNN是20世紀(jì)90年代早期商業(yè)軟件包SN和2002年開源的Lush軟件包的一項(xiàng)功能。20世紀(jì)90年代中后期才開始有OSS分發(fā))。因此,在某種程度上,CNN直到2002年才完全發(fā)表(released)。但那時(shí)基本沒有什么人關(guān)注CNN,或者想到用Lush來訓(xùn)練CNN?!?/p>

LeCun的這番話,可以說是為他此前的“表態(tài)”做出了完美的解釋。

是的,這里說的還是關(guān)于OpenAI模型開源的那件事。

LeCun:擔(dān)心模型太強(qiáng)大而不開源,干脆別研究AI

2月中旬,OpenAI宣布他們開發(fā)了一個(gè)通用文本生成模型GPT-2,擁有15億參數(shù),使用了800萬網(wǎng)頁進(jìn)行訓(xùn)練,能夠同時(shí)完成文本生成、回答問題、總結(jié)摘要、機(jī)器翻譯等多項(xiàng)任務(wù),有的時(shí)候效果甚至比專門的文本生成/問答/摘要總結(jié)等模型還要好。

接著,OpenAI用一個(gè)又一個(gè)的示例,充分展示了GPT-2模型有多強(qiáng)大,等到眾人迫不及待地要了解設(shè)計(jì)細(xì)節(jié)時(shí),突然話鋒一轉(zhuǎn),說他們擔(dān)心模型“太過強(qiáng)大”,開源后可能遭人濫用,這次決定不公布具體參數(shù)和訓(xùn)練數(shù)據(jù)集,只是放出一個(gè)小很多的樣本模型供人參考。

誰料,OpenAI這一舉動(dòng)引爆了整個(gè)AI圈,相比GPT-2模型本身,對于模型是否該開源的爭論在短時(shí)間內(nèi)得到了更多的關(guān)注,NLP領(lǐng)域以外的研究人員和開發(fā)者也湊過來,而且“群眾的意見”幾乎是一邊倒的反對OpenAI,簡而言之:

擔(dān)心AI過于強(qiáng)大而不開源太矯情,這樣還不如一開始就別研究AI。

當(dāng)時(shí),LeCun不僅轉(zhuǎn)發(fā)了一條諷刺OpenAI的推文,還“火上澆油”地寫了個(gè)段子,大意是:可不能開源在MNIST數(shù)據(jù)集上精度99.99%的模型,這可能被人用來篡改郵編,發(fā)動(dòng)垃圾郵件恐怖襲擊,那還得了。具體見下:

最終,LeCun對OpenAI不予開源的嘲諷發(fā)展到了極致:

“每個(gè)新生出來的人都可能造謠、傳播流言并影響其他人,那我們是不是該別生孩子了?”

這番言論實(shí)在稱不上嚴(yán)謹(jǐn),甚至不能算“嚴(yán)肅”,但作為Facebook首席科學(xué)家、卷積神經(jīng)網(wǎng)絡(luò)發(fā)明人和深度學(xué)習(xí)三巨頭之一,LeCun在如今的AI圈子里擁有巨大的影響力,他的這一表態(tài)迅速成為重磅砝碼,壓在了天平“反對不開源”的這邊,不僅堅(jiān)定了此前站出來表示反對的人的信念,還影響了不少后來人的觀點(diǎn)。

關(guān)于模型開源,我們真正關(guān)注的應(yīng)該是什么?

當(dāng)然,現(xiàn)在業(yè)界的重點(diǎn)已經(jīng)從最初的口水戰(zhàn)聚焦到AI研究發(fā)表和開源政策的討論上來。

LeCun或許也是希望用今天這個(gè)“serious question”來闡述自己當(dāng)初過于簡單而容易被人誤會(huì)的表態(tài)。

大多數(shù)研究人員都同意,OpenAI決定不開源的出發(fā)點(diǎn)是好的,但給出的理由卻不盡人意:

首先,GPT-2模型是否真有那么強(qiáng)大?不公布細(xì)節(jié)無法證明這一點(diǎn)。這也是一開始口水戰(zhàn)的一大焦點(diǎn),如果不給出細(xì)節(jié),誰都可以站出來說我實(shí)現(xiàn)了強(qiáng)AI,但由于“擔(dān)心太過強(qiáng)大”,所以我不能發(fā)表。

插一句,從OpenAI公布的統(tǒng)計(jì)數(shù)據(jù)中可以看出,GPT-2不僅僅是“記住了”數(shù)據(jù),而是確實(shí)具有更強(qiáng)的泛化性能。

其次,公開了模型設(shè)計(jì)和訓(xùn)練數(shù)據(jù)集,是否就會(huì)被人拿去在網(wǎng)上“假言惑眾”?先拋開結(jié)果復(fù)現(xiàn)程度,但看訓(xùn)練成本——OpenAI并沒有介紹訓(xùn)練GPT-2模型的時(shí)間,但根據(jù)知情的研究人員透露,OpenAI取得了特許,使用谷歌TPU來訓(xùn)練模型,1小時(shí)花費(fèi)2048美元。這個(gè)費(fèi)用不是一般人能承擔(dān)得起的,而能承擔(dān)起這種費(fèi)用的,如果真要“作惡”,有大概率不需要借助開源模型。

最后,關(guān)于企業(yè)研究機(jī)構(gòu)如何宣傳AI研究,如何面對公眾、媒體和研究人員等不同群體,OpenAI的做法也有一些爭議。DeepMind在最初介紹WaveNet,一個(gè)能合成與真人語音幾乎無二的強(qiáng)大語音生成模型的時(shí)候?qū)τ跐撛谖kU(xiǎn)只字不提,而OpenAI不但主動(dòng)提出并且還想要牽頭制定AI研究發(fā)表的相關(guān)政策。這里說不出誰對誰錯(cuò),但OpenAI只給出一個(gè)郵箱地址,歡迎“感興趣的研究人員”聯(lián)系他們的做法是遠(yuǎn)遠(yuǎn)不夠的。

現(xiàn)在能夠肯定的是,關(guān)于AI研究發(fā)表和模型開源,相關(guān)的政策真的需要制定了。OpenAI在擔(dān)心模型被濫用時(shí)舉了DeepFake為例,DeepFake是基于CNN構(gòu)建的圖像生成模型,由于強(qiáng)大的圖像生成能力,能夠生成以假亂真的人臉,甚至騙過先進(jìn)的人臉識(shí)別模型。

那么回到LeCun一開始問的那個(gè)嚴(yán)肅的問題:

要是當(dāng)初知道卷積神經(jīng)網(wǎng)絡(luò)(CNN)會(huì)催生DeepFake,我們還要不要發(fā)表CNN呢?

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35144

    瀏覽量

    279828
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22742

原文標(biāo)題:LeCun:30年前知道DeepFake,我還該不該開源CNN?

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    自制個(gè)支持AI 控制的無刷平衡車機(jī)器人:開源項(xiàng)目D-BOT全攻略

    今天給大家介紹款創(chuàng)意桌面機(jī)器人——D-BOT!它不僅是個(gè)功能強(qiáng)大的平衡車機(jī)器人,也是個(gè)融合
    發(fā)表于 04-28 11:45

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    Studio提供最優(yōu)解。Neuron Studio可針對模型到應(yīng)用,提供站式、全鏈路、自動(dòng)化的開發(fā)協(xié)助,不僅讓AI應(yīng)用開發(fā)的全流程可視化,更帶來整個(gè)多種工具的
    發(fā)表于 04-13 19:52

    AI開源如何影響IBM的未來

    DeepSeek-R1 是個(gè)開源的人工智能(AI)推理模型,在某些任務(wù)中表現(xiàn)出了極具競爭力的性能,它的
    的頭像 發(fā)表于 03-03 11:21 ?450次閱讀

    AI開源模型庫有什么用

    AI開源模型庫作為推動(dòng)AI技術(shù)發(fā)展的重要力量,正深刻改變著我們的生產(chǎn)生活方式。接下來,AI部落小編帶您了解
    的頭像 發(fā)表于 02-24 11:50 ?430次閱讀

    模型訓(xùn)練:開源數(shù)據(jù)與算法的機(jī)遇與挑戰(zhàn)分析

    最近,開源中國 OSCHINA、Gitee 與 Gitee AI 聯(lián)合發(fā)布《2024 中國開源開發(fā)者報(bào)告》。 報(bào)告聚焦 AI
    的頭像 發(fā)表于 02-20 10:40 ?618次閱讀
    大<b class='flag-5'>模型</b>訓(xùn)練:<b class='flag-5'>開源</b>數(shù)據(jù)與算法的機(jī)遇與挑戰(zhàn)分析

    Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑

    ?在人工智能領(lǐng)域,Meta的最新動(dòng)作再次引起了全球的關(guān)注。今天,我們見證Meta發(fā)布的 Llama 3.3 70B 模型,這是個(gè)開源的人
    的頭像 發(fā)表于 12-18 16:46 ?583次閱讀
    Meta重磅發(fā)布Llama 3.3 70B:<b class='flag-5'>開源</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>的新里程碑

    谷歌發(fā)布“深度研究AI工具,利用Gemini模型進(jìn)行網(wǎng)絡(luò)信息檢索

    據(jù)外媒最新報(bào)道,谷歌近期發(fā)布款名為“深度研究”的先進(jìn)AI工具。這款工具借助其內(nèi)部的Gemini大型語言模型,實(shí)現(xiàn)
    的頭像 發(fā)表于 12-16 09:35 ?722次閱讀

    開源AI模型庫是干嘛的

    開源AI模型庫是指那些公開源代碼、允許自由訪問和使用的AI模型集合。這些
    的頭像 發(fā)表于 12-14 10:33 ?788次閱讀

    阿里云開源推理大模型QwQ

    近日,阿里云通義團(tuán)隊(duì)宣布推出全新AI推理模型QwQ-32B-Preview,并同步實(shí)現(xiàn)開源。這舉措標(biāo)志著阿里云在
    的頭像 發(fā)表于 11-29 11:30 ?1166次閱讀

    AMD發(fā)布10億參數(shù)開源AI模型OLMo

    AMD公司近日宣布項(xiàng)重大進(jìn)展,推出了首個(gè)完全開放的10億參數(shù)語言模型系列——AMD OLMo。這舉措為開發(fā)者和研究人員提供
    的頭像 發(fā)表于 11-12 18:08 ?787次閱讀

    科技云報(bào)到:假開源噱頭?開源模型和你想的不樣!

    查看、修改、分發(fā)。開源自此深刻影響了互聯(lián)網(wǎng)行業(yè)的每一個(gè)角落。 在大模型和GenAI崛起的當(dāng)下,開源再次成為業(yè)界關(guān)注焦點(diǎn),對于開源和閉源的爭論
    的頭像 發(fā)表于 11-03 10:46 ?590次閱讀

    Llama 3 與開源AI模型的關(guān)系

    體現(xiàn)在多個(gè)層面。 1. 開源精神的體現(xiàn) Llama 3項(xiàng)目可能是個(gè)開源項(xiàng)目,這意味著它的源代碼、算法和數(shù)據(jù)集對公眾開放。這種開放性是開源
    的頭像 發(fā)表于 10-27 14:42 ?775次閱讀

    AI模型的最新研究進(jìn)展

    AI模型的最新研究進(jìn)展體現(xiàn)在多個(gè)方面,以下是對其最新進(jìn)展的介紹: 、技術(shù)創(chuàng)新與突破 生成式AI技術(shù)的爆發(fā) : 生成式
    的頭像 發(fā)表于 10-23 15:19 ?1512次閱讀

    開源 KiCad/AD 查看器 + AI Copilot?

    使用,從個(gè)電阻到個(gè)復(fù)雜的 MCU,機(jī)器人都能給你解釋的清清楚楚,省時(shí)省力! 開源的 EDA 查看器 之前推薦過
    發(fā)表于 08-18 22:41

    Meta即將發(fā)布超強(qiáng)開源AI模型Llama 3-405B

    在人工智能領(lǐng)域的激烈競爭中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,個(gè)擁有驚人4050億參數(shù)的開源模型。這
    的頭像 發(fā)表于 07-18 09:58 ?1338次閱讀