一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI畫的簡筆畫能到什么水平

人工智能與大數(shù)據(jù)技術(shù) ? 來源:金磊 ? 作者:金磊 ? 2020-12-25 11:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI畫的簡筆畫能到什么水平?

給一張美國演員Rami Malek的照片,效果是這樣的。

是不是和原圖很逼近了?

再來看下輸入《老友記》合影的效果。

雖然人物眾多,但出來的簡筆畫效果,依舊還是能分清劇中的人物。

如果毛發(fā)特別濃密的人物照,AI還能hold得住嗎?

小姐姐“爆炸頭”的邊緣毛發(fā),也算得上是完美還原了。

再近距離一些的呢?來看“霉霉”(Taylor Swift)照片的效果。

可以說是相當(dāng)?shù)募?xì)節(jié)了,把發(fā)絲的層次感、光感,以及衣物的褶皺,都發(fā)揮的“淋漓盡致”。

……

這些就是出自一個(gè)叫ArtLine的AI的作品。

而且它在Reddit非?;鸨?,已經(jīng)達(dá)到了1100+的熱度。

如此惟妙惟肖的效果,你是不是認(rèn)為又是GAN的功勞?

錯(cuò)!

ArtLine完全沒有用到GAN:

也正因如此,ArtLine的效果真真兒的驚艷到了網(wǎng)友。

那么,它是如何做到的呢?

ArtLine背后的三大“法寶”

ArtLine的作者十分爽快地分享了其背后的三大技術(shù):

Self-Attention

Progressive Resizing

Generator Loss

接下來,一起逐一看下各個(gè)技術(shù)背后的細(xì)節(jié)內(nèi)容。

Self-Attention部分引用的技術(shù),出自兩年前GAN之父lan Goodfellow等人提出的研究。

等等,剛才不是還說“沒用到GAN”嗎?

作者對(duì)此的解釋是:

并沒有起到太大作用。

這項(xiàng)研究主要是在GAN生成中加入了注意力機(jī)制,同時(shí)將SNgan的思想引入到生成器當(dāng)中。

所要解決的是傳統(tǒng)GAN自身存在的一些問題,例如:

使用小的卷積核很難發(fā)現(xiàn)圖像中的依賴關(guān)系

使用大的卷積核就會(huì)喪失卷積網(wǎng)絡(luò)參數(shù)與計(jì)算的效率

研究中核心的自注意力機(jī)制如下圖所示。

其中,f(x),g(x)和h(x)都是普通的1x1卷積,差別只在于輸出通道大小不同。

而后,將f(x)的輸出轉(zhuǎn)置,并和g(x)的輸出相乘,再經(jīng)過softmax歸一化,得到一個(gè)Attention Map。

得到Attention Map之后,和h(x)逐像素點(diǎn)相乘,得到自適應(yīng)的注意力feature maps。

206cd116-4658-11eb-8b86-12bb97331649.png

從結(jié)果上來看,引入自注意力機(jī)制的效果,確實(shí)在FID和IS兩個(gè)性能指標(biāo)下,得到了較好的效果。

ArtLine涉及到的第二個(gè)技術(shù)靈感,來自英偉達(dá)在2018年的一項(xiàng)研究。

20a9d660-4658-11eb-8b86-12bb97331649.png

這項(xiàng)研究主要提出了一種新的訓(xùn)練對(duì)抗神經(jīng)網(wǎng)絡(luò)的方法。

核心思想是逐步訓(xùn)練生成器和判別器:從低分辨率開始,隨著訓(xùn)練進(jìn)程推進(jìn),逐步增加新的層來提煉細(xì)節(jié)。

這種方法不僅加快了訓(xùn)練速度并且更加穩(wěn)定,可以產(chǎn)生高質(zhì)量的圖像。

ArtLine所涉及到的最后一個(gè)技術(shù),是來自斯坦福大學(xué)李飛飛團(tuán)隊(duì)在2016年提出的研究。

這項(xiàng)研究主要解決了實(shí)現(xiàn)的風(fēng)格轉(zhuǎn)換,比較費(fèi)時(shí)的問題。

風(fēng)格轉(zhuǎn)換部分主要用了上面的網(wǎng)絡(luò)模型,這個(gè)模型可以分為兩部分:左側(cè)是圖像轉(zhuǎn)換網(wǎng)絡(luò),而右側(cè)是損耗網(wǎng)絡(luò)。

其超分辨率重建也是采用上面的網(wǎng)絡(luò)模型,只是具體內(nèi)部的圖像轉(zhuǎn)換網(wǎng)絡(luò)部分稍有區(qū)別。

這個(gè)網(wǎng)絡(luò)與之前的研究相比,效果達(dá)到了相當(dāng)?shù)乃?,但速度卻提升了百倍之多,達(dá)到3個(gè)數(shù)量級(jí)。

21dfa44c-4658-11eb-8b86-12bb97331649.png

關(guān)于作者

ArtLine的項(xiàng)目作者叫做Vijish Madhavan。

他在GitHub中坦言自己并非程序員出身,也道出了ArtLine目前存在的一些缺陷,例如處理像素低于500px的圖像時(shí),效果并不理想等。

現(xiàn)在,ArtLine可以在線玩了!

感興趣的讀者,可以戳下方鏈接體驗(yàn)一下。

Colab鏈接:

https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine(Try_it_on_Colab).ipynb.ipynb)
https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine.ipynb

GitHub項(xiàng)目地址:

https://github.com/vijishmadhavan/ArtLine

責(zé)任編輯:xj

原文標(biāo)題:這個(gè)AI“大師級(jí)”簡筆畫水平,驚艷到了網(wǎng)友:竟然不用GAN

文章出處:【微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35168

    瀏覽量

    280173
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2209

    瀏覽量

    76845

原文標(biāo)題:這個(gè)AI“大師級(jí)”簡筆畫水平,驚艷到了網(wǎng)友:竟然不用GAN

文章出處:【微信號(hào):TheBigData1024,微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    觸摸芯片全面選型指南:從功能到場(chǎng)景的全維度考量

    觸摸芯片全面選型指南:從功能到場(chǎng)景的全維度考量
    的頭像 發(fā)表于 07-17 17:54 ?33次閱讀

    【BPI-CanMV-K230D-Zero開發(fā)板體驗(yàn)】視頻會(huì)議場(chǎng)景下的 AI 應(yīng)用(電子云臺(tái) EPTZ、人像居中 / 追蹤、畫中

    上人物表情細(xì)節(jié),又想看清整個(gè)舞臺(tái)畫面時(shí),“畫中”功能就提供了這種優(yōu)勢(shì)。“畫中”通過在畫面上疊加一個(gè)全景畫面,來達(dá)到同時(shí)看清人物細(xì)節(jié)和舞臺(tái)全景的效果。   除此之外,會(huì)議場(chǎng)景還有諸多 AI
    發(fā)表于 07-09 20:56

    不知道怎么原理圖了

    某天,某實(shí)驗(yàn)室,幾位工程師在討論《原理圖設(shè)計(jì)規(guī)范》。一秒之前還很和諧,下一秒討論原理圖怎么的時(shí)候,大家的意見就分歧很大了。類似于“豆?jié){是喝甜的還是咸的”、“粽子里面是放棗子還是放肉”。原來電路圖
    的頭像 發(fā)表于 04-30 18:40 ?414次閱讀
    不知道怎么<b class='flag-5'>畫</b>原理圖了

    AI 時(shí)代開啟,企業(yè)跟風(fēng)做 AI 產(chǎn)品是明智之舉?

    AI
    華成工控
    發(fā)布于 :2025年04月10日 17:28:44

    華為AI Calling解決方案打造AI時(shí)代業(yè)務(wù)入口

    產(chǎn)品線CS&IMS領(lǐng)域總裁陳海永發(fā)表了《AI賦能新通話,構(gòu)筑智能業(yè)務(wù)入口》主題演講,指出在5G-A時(shí)代,基于原生撥號(hào)盤和音頻、視頻、數(shù)據(jù)通道能力,華為提供AI Calling解決方案,幫助運(yùn)營商從AI使
    的頭像 發(fā)表于 03-06 11:10 ?613次閱讀

    ADS1299可以直接采集μv的電壓信號(hào)嗎,他的精度能到多少???

    ADS1299可以直接采集μv的電壓信號(hào)嗎,他的精度能到多少啊
    發(fā)表于 01-08 06:48

    TDC7201-ZAX-EVM評(píng)估板的最高測(cè)量頻率能到多少?

    TDC7201-ZAX-EVM評(píng)估板的最高測(cè)量頻率能到多少?自帶的GUI中最快100ms刷新一次測(cè)量結(jié)果,是否就是上限了?另外,能提供可調(diào)用的LabVIEW函數(shù)嗎?
    發(fā)表于 12-24 06:00

    請(qǐng)問adc3583的噪聲電平能到多少Vrms?

    請(qǐng)問adc3583的噪聲電平能到多少Vrms
    發(fā)表于 11-27 08:21

    DAC8718在單電源供電,雙電源供電下,輸出的模擬電壓最小能到多少?

    我想請(qǐng)教一下,DAC8718(7718)在單電源供電,雙電源供電,兩種方式下,輸出的模擬電壓最小能到多少? 我看規(guī)格書上: Note that the maximum output voltage
    發(fā)表于 11-22 07:49

    TAS5715頻響為什么只能到6K?

    為什么我們買的DEMO板 在測(cè)試頻響的時(shí)候只到6KHZ(-3DB),然后我們做的產(chǎn)品出來也是到6K,這是什么原因,我們做過一些測(cè)試,在進(jìn)入PM1808之前的信號(hào)是到20K以上的,進(jìn)了ADC,從5715出來后就只能到6K。
    發(fā)表于 11-04 06:58

    THS4631單位增益能到325M我的電路單位增益只能到10幾M?

    手冊(cè)上說THS4631單位增益能到325M我的電路單位增益只能到10幾M? GBW = 210M,我放大10倍結(jié)果10M的時(shí)候就衰減很厲害,怎么回事? 請(qǐng)專家指導(dǎo),謝謝
    發(fā)表于 09-19 08:31

    請(qǐng)問LM2907進(jìn)行頻壓轉(zhuǎn)換時(shí),輸入頻率最高能到多少?

    請(qǐng)問LM2907進(jìn)行頻壓轉(zhuǎn)換時(shí),輸入頻率最高能到多少?數(shù)據(jù)手冊(cè)沒有看到相應(yīng)數(shù)據(jù)。
    發(fā)表于 09-05 07:51

    LM7171單電源供電時(shí),輸出低電平能到0V嗎?

    LM7171單電源供電時(shí),輸出低電平能到0V嗎,從datasheet看應(yīng)該是不能,但是在TINA上模擬時(shí)能輸出0V,求大神解惑!
    發(fā)表于 08-12 07:52

    云開發(fā)AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 14:41:54