一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

盤點(diǎn)2018年計(jì)算機(jī)視覺大突破

mK5P_AItists ? 來源:cg ? 2019-01-07 11:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2018,仍是AI領(lǐng)域激動(dòng)人心的一年。

計(jì)算機(jī)視覺領(lǐng)域同樣精彩紛呈,與四年前相比GAN生成的假臉逼真到讓人不敢相信;新工具、新框架的出現(xiàn),也讓這個(gè)領(lǐng)域的明天特別讓人期待……

近日,Analytics Vidhya發(fā)布了一份2018人工智能技術(shù)總結(jié)與2019趨勢(shì)預(yù)測(cè)報(bào)告,原文作者PRANAV DAR。這份報(bào)告總結(jié)和梳理了全年主要AI技術(shù)領(lǐng)域的重大進(jìn)展,同時(shí)也給出了相關(guān)的資源地址,以便大家更好的使用、查詢。

重點(diǎn)為大家介紹這份報(bào)告中的兩個(gè)部分:

計(jì)算機(jī)視覺

工具和庫

下面,我們就逐一來盤點(diǎn)和展望。

計(jì)算機(jī)視覺

今年,無論是圖像還是視頻方向都有大量新研究問世,有三大研究曾在CV圈掀起了集體波瀾。

BigGAN

今年9月,當(dāng)搭載BigGAN的雙盲評(píng)審中的ICLR 2019論文現(xiàn)身,行家們就沸騰了:簡直看不出這是GAN自己生成的。

在計(jì)算機(jī)圖像研究史上,BigGAN的效果比前人進(jìn)步了一大截。比如在ImageNet上進(jìn)行128×128分辨率的訓(xùn)練后,它的Inception Score(IS)得分166.3,是之前最佳得分52.52分3倍。

除了搞定128×128小圖之外,BigGAN還能直接在256×256、512×512的ImageNet數(shù)據(jù)上訓(xùn)練,生成更讓人信服的樣本。

在論文中研究人員揭秘,BigGAN的驚人效果背后,真的付出了金錢的代價(jià),最多要用512個(gè)TPU訓(xùn)練,費(fèi)用可達(dá)11萬美元,合人民幣76萬元。

不止是模型參數(shù)多,訓(xùn)練規(guī)模也是有GAN以來最大的。它的參數(shù)是前人的2-4倍,批次大小是前人的8倍。

研究論文:https://openreview.net/pdf?id=B1xsqj09Fm

Fast.ai 18分鐘訓(xùn)練整個(gè)ImageNet

在完整的ImageNet上訓(xùn)練一個(gè)模型需要多久?各大公司不斷下血本刷新著記錄。

不過,也有不那么燒計(jì)算資源的平民版。

今年8月,在線深度學(xué)習(xí)課程Fast.ai的創(chuàng)始人Jeremy Howard和自己的學(xué)生,用租來的亞馬遜AWS的云計(jì)算資源,18分鐘在ImageNet上將圖像分類模型訓(xùn)練到了93%的準(zhǔn)確率。

前前后后,F(xiàn)ast.ai團(tuán)隊(duì)只用了16個(gè)AWS云實(shí)例,每個(gè)實(shí)例搭載8塊英偉達(dá)V100 GPU,結(jié)果比Google用TPU Pod在斯坦福DAWNBench測(cè)試上達(dá)到的速度還要快40%。

這樣拔群的成績,成本價(jià)只需要40美元,F(xiàn)ast.ai在博客中將其稱作人人可實(shí)現(xiàn)。

Fast.ai博客介紹:https://www.fast.ai/2018/08/10/fastai-diu-imagenet/

vid2vid技術(shù)

今年8月,英偉達(dá)和MIT的研究團(tuán)隊(duì)高出一個(gè)超逼真高清視頻生成AI。

只要一幅動(dòng)態(tài)的語義地圖,就可獲得和真實(shí)世界幾乎一模一樣的視頻。換句話說,只要把你心中的場(chǎng)景勾勒出來,無需實(shí)拍,電影級(jí)的視頻就可以自動(dòng)P出來:

除了街景,人臉也可生成:

這背后的vid2vid技術(shù),是一種在生成對(duì)抗性學(xué)習(xí)框架下的新方法:精心設(shè)計(jì)的生成器和鑒別器架構(gòu),再加上時(shí)空對(duì)抗目標(biāo)。

這種方法可以在分割蒙版、素描草圖、人體姿勢(shì)等多種輸入格式上,實(shí)現(xiàn)高分辨率、逼真、時(shí)間相干的視頻效果。

好消息,vid2vid現(xiàn)已被英偉達(dá)開源。

研究論文:https://tcwang0509.github.io/vid2vid/paper_vid2vid.pdf

GitHub地址:https://github.com/NVIDIA/vid2vid

2019趨勢(shì)展望

Analytics Vidhya預(yù)計(jì),明年在計(jì)算機(jī)視覺領(lǐng)域,對(duì)現(xiàn)有方法的改進(jìn)和增強(qiáng)的研究可能多于創(chuàng)造新方法。

在美國,政府對(duì)無人機(jī)的限令可能會(huì)稍微“松綁”,開放程度可能增加。而今年大火的自監(jiān)督學(xué)習(xí)明年可能會(huì)應(yīng)用到更多研究中。

Analytics Vidhya對(duì)視覺領(lǐng)域也有一些期待,目前來看,在CVPR和ICML等國際頂會(huì)上公布最新研究成果,在工業(yè)界的應(yīng)用情況還不樂觀。他希望在2019年,能看到更多的研究在實(shí)際場(chǎng)景中落地。

Analytics Vidhya預(yù)計(jì),視覺問答(Visual Question Answering,VQA)技術(shù)和視覺對(duì)話系統(tǒng)可能會(huì)在各種實(shí)際應(yīng)用中首次亮相。

工具和框架

哪種工具最好?哪個(gè)框架代表了未來?這都是一個(gè)個(gè)能永遠(yuǎn)爭論下去的話題。

沒有異議的是,不管爭辯的結(jié)果是什么,我們都需要掌握和了解最新的工具,否則就有可能被行業(yè)所拋棄。

今年,機(jī)器學(xué)習(xí)領(lǐng)域的工具和框架仍在快速的發(fā)展,下面就是這方面的總結(jié)和展望。

PyTorch 1.0

根據(jù)10月GitHub發(fā)布的2018年度報(bào)告,PyTorch在增長最快的開源項(xiàng)目排行上,名列第二。也是唯一入圍的深度學(xué)習(xí)框架。

作為谷歌TensorFlow最大的“勁敵”,PyTorch其實(shí)是一個(gè)新兵,2017年1月19日才正式發(fā)布。2018年5月,PyTorch和Caffe2整合,成為新一代PyTorch 1.0,競(jìng)爭力更進(jìn)一步。

相較而言,PyTorch速度快而且非常靈活,在GitHub上有越來越多的開碼都采用了PyTorch框架??梢灶A(yù)見,明年P(guān)yTorch會(huì)更加普及。

至于PyTorch和TensorFlow怎么選擇?在我們之前發(fā)過的一篇報(bào)道里,不少大佬站PyTorch。

實(shí)際上,兩個(gè)框架越來越像。前Google Brain深度學(xué)習(xí)研究員,Denny Britz認(rèn)為,大多數(shù)情況下,選擇哪一個(gè)深度學(xué)習(xí)框架,其實(shí)影響沒那么大。

PyTorch官網(wǎng):https://pytorch.org/

AutoML

很多人將AutoML稱為深度學(xué)習(xí)的新方式,認(rèn)為它改變了整個(gè)系統(tǒng)。有了AutoML,我們就不再需要設(shè)計(jì)復(fù)雜的深度學(xué)習(xí)網(wǎng)絡(luò)。

今年1月17日,谷歌推出Cloud AutoML服務(wù),把自家的AutoML技術(shù)通過云平臺(tái)對(duì)外發(fā)布,即便你不懂機(jī)器學(xué)習(xí),也能訓(xùn)練出一個(gè)定制化的機(jī)器學(xué)習(xí)模型。

不過AutoML并不是谷歌的專利。過去幾年,很多公司都在涉足這個(gè)領(lǐng)域,比方國外有RapidMiner、KNIME、DataRobot和H2O.ai等等。

除了這些公司的產(chǎn)品,還有一個(gè)開源庫要介紹給大家:

Auto Keras!

這是一個(gè)用于執(zhí)行AutoML任務(wù)的開源庫,意在讓更多人即便沒有人工智能的專家背景,也能搞定機(jī)器學(xué)習(xí)這件事。

這個(gè)庫的作者是美國德州農(nóng)工大學(xué)(Texas A&M University)助理教授胡俠和他的兩名博士生:金海峰、Qingquan Song。Auto Keras直擊谷歌AutoML的三大缺陷:

第一,還得付錢。

第二,因?yàn)樵谠粕?,還得配置Docker容器和Kubernetes。

第三,服務(wù)商(Google)保證不了你數(shù)據(jù)安全和隱私。

官網(wǎng):https://autokeras.com/

GitHub:https://github.com/jhfjhfj1/autokeras

TensorFlow.js

今年3月底的TensorFlow開發(fā)者會(huì)峰會(huì)2018上,TensorFlow.js正式發(fā)布。

這是一個(gè)面向JavaScript開發(fā)者的機(jī)器學(xué)習(xí)框架,可以完全在瀏覽器中定義和訓(xùn)練模型,也能導(dǎo)入離線訓(xùn)練的TensorFlow和Keras模型進(jìn)行預(yù)測(cè),還對(duì)WebGL實(shí)現(xiàn)無縫支持。

在瀏覽器中使用TensorFlow.js可以擴(kuò)展更多的應(yīng)用場(chǎng)景,包括展開交互式的機(jī)器學(xué)習(xí)、所有數(shù)據(jù)都保存在客戶端的情況等。

實(shí)際上,這個(gè)新發(fā)布的TensorFlow.js,就是基于之前的deeplearn.js,只不過被整合進(jìn)TensorFlow之中。

谷歌還給了幾個(gè)TensorFlow.js的應(yīng)用案例。比如借用你的攝像頭,來玩經(jīng)典游戲:吃豆人(Pac-Man)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49029

    瀏覽量

    249598
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1709

    瀏覽量

    46781

原文標(biāo)題:一文看盡2018全年計(jì)算機(jī)視覺大突破

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Arm KleidiCV與OpenCV集成助力移動(dòng)端計(jì)算機(jī)視覺性能優(yōu)化

    生成式及多模態(tài)人工智能 (AI) 工作負(fù)載的廣泛增長,推動(dòng)了對(duì)計(jì)算機(jī)視覺 (CV) 技術(shù)日益高漲的需求。此類技術(shù)能夠解釋并分析源自現(xiàn)實(shí)世界的視覺信息,并可應(yīng)用于人臉識(shí)別、照片分類、濾鏡處理及增強(qiáng)現(xiàn)實(shí)
    的頭像 發(fā)表于 02-24 10:15 ?568次閱讀

    AR和VR中的計(jì)算機(jī)視覺

    ):計(jì)算機(jī)視覺引領(lǐng)混合現(xiàn)實(shí)體驗(yàn)增強(qiáng)現(xiàn)實(shí)(AR)和虛擬現(xiàn)實(shí)(VR)正在徹底改變我們與外部世界的互動(dòng)方式。即便是在引人入勝的沉浸式
    的頭像 發(fā)表于 02-08 14:29 ?1580次閱讀
    AR和VR中的<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>

    榮譽(yù)時(shí)刻|杰和科技榮獲深圳市計(jì)算機(jī)行業(yè)協(xié)會(huì)多個(gè)獎(jiǎng)項(xiàng)

    20251月8日,深圳市計(jì)算機(jī)行業(yè)協(xié)會(huì)舉辦了2024度會(huì)員大會(huì)暨高峰論壇。杰和科技應(yīng)邀出席會(huì)議,與行業(yè)精英、專家代表等共同探討2025年計(jì)算機(jī)行業(yè)未來趨勢(shì)。本次大會(huì)現(xiàn)場(chǎng)發(fā)布多項(xiàng)行業(yè)
    的頭像 發(fā)表于 02-05 17:48 ?520次閱讀
    榮譽(yù)時(shí)刻|杰和科技榮獲深圳市<b class='flag-5'>計(jì)算機(jī)</b>行業(yè)協(xié)會(huì)多個(gè)獎(jiǎng)項(xiàng)

    云端超級(jí)計(jì)算機(jī)使用教程

    云端超級(jí)計(jì)算機(jī)是一種基于云計(jì)算的高性能計(jì)算服務(wù),它將大量計(jì)算資源和存儲(chǔ)資源集中在一起,通過網(wǎng)絡(luò)向用戶提供按需的計(jì)算服務(wù)。下面,AI部落小編為
    的頭像 發(fā)表于 12-17 10:19 ?553次閱讀

    工業(yè)中使用哪種計(jì)算機(jī)?

    在工業(yè)環(huán)境中,工控機(jī)被廣泛使用。這些計(jì)算機(jī)的設(shè)計(jì)可承受極端溫度、灰塵和振動(dòng)等惡劣條件。它們比標(biāo)準(zhǔn)消費(fèi)類計(jì)算機(jī)更耐用、更可靠。工業(yè)計(jì)算機(jī)可控制機(jī)器、監(jiān)控流程并實(shí)時(shí)收集數(shù)據(jù)。其堅(jiān)固的結(jié)構(gòu)和專業(yè)功能
    的頭像 發(fā)表于 11-29 14:07 ?715次閱讀
    工業(yè)中使用哪種<b class='flag-5'>計(jì)算機(jī)</b>?

    量子計(jì)算機(jī)與普通計(jì)算機(jī)工作原理的區(qū)別

    ? 本文介紹了量子計(jì)算機(jī)與普通計(jì)算機(jī)工作原理的區(qū)別。 量子計(jì)算是一個(gè)新興的研究領(lǐng)域,科學(xué)家們利用量子力學(xué),制造出具有革命性能力的計(jì)算機(jī)。雖然現(xiàn)在的量子
    的頭像 發(fā)表于 11-24 11:00 ?1498次閱讀
    量子<b class='flag-5'>計(jì)算機(jī)</b>與普通<b class='flag-5'>計(jì)算機(jī)</b>工作原理的區(qū)別

    【小白入門必看】一文讀懂深度學(xué)習(xí)計(jì)算機(jī)視覺技術(shù)及學(xué)習(xí)路線

    一、什么是計(jì)算機(jī)視覺?計(jì)算機(jī)視覺,其實(shí)就是教機(jī)器怎么像我們?nèi)艘粯樱脭z像頭看看周圍的世界,然后理解它。比如說,它能認(rèn)出這是個(gè)蘋果,或者那邊有輛車。除此之外,還能把拍到的照片或者視頻轉(zhuǎn)換
    的頭像 發(fā)表于 10-31 17:00 ?1246次閱讀
    【小白入門必看】一文讀懂深度學(xué)習(xí)<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>技術(shù)及學(xué)習(xí)路線

    計(jì)算機(jī)接口位于什么之間

    計(jì)算機(jī)接口是計(jì)算機(jī)硬件和軟件之間、計(jì)算機(jī)與外部設(shè)備之間以及計(jì)算機(jī)各部件之間傳輸數(shù)據(jù)、控制信息和狀態(tài)信息的硬件設(shè)備和軟件程序。它在計(jì)算機(jī)系統(tǒng)中
    的頭像 發(fā)表于 10-14 14:02 ?1322次閱讀

    簡述計(jì)算機(jī)總線的分類

    計(jì)算機(jī)總線作為計(jì)算機(jī)系統(tǒng)中連接各個(gè)功能部件的公共通信干線,其結(jié)構(gòu)和分類對(duì)于理解計(jì)算機(jī)硬件系統(tǒng)的工作原理至關(guān)重要。以下是對(duì)計(jì)算機(jī)總線結(jié)構(gòu)和分類的詳細(xì)闡述,內(nèi)容將涵蓋總線的基本概念、內(nèi)部結(jié)
    的頭像 發(fā)表于 08-26 16:23 ?5186次閱讀

    晶體管計(jì)算機(jī)和電子管計(jì)算機(jī)有什么區(qū)別

    晶體管計(jì)算機(jī)和電子管計(jì)算機(jī)作為計(jì)算機(jī)發(fā)展史上的兩個(gè)重要階段,它們?cè)诙鄠€(gè)方面存在顯著的區(qū)別。以下是對(duì)這兩類計(jì)算機(jī)在硬件、性能、應(yīng)用以及技術(shù)發(fā)展等方面區(qū)別的詳細(xì)闡述。
    的頭像 發(fā)表于 08-23 15:28 ?3622次閱讀

    計(jì)算機(jī)視覺有哪些優(yōu)缺點(diǎn)

    計(jì)算機(jī)視覺作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像和視頻中的信息。這一技術(shù)的發(fā)展不僅推動(dòng)了多個(gè)行業(yè)的變革,也帶來了諸多優(yōu)勢(shì),但同時(shí)也伴隨著一些挑戰(zhàn)和局限性。以下是對(duì)
    的頭像 發(fā)表于 08-14 09:49 ?2053次閱讀

    圖像處理器與計(jì)算機(jī)視覺有什么關(guān)系和區(qū)別

    圖像處理器與計(jì)算機(jī)視覺是兩個(gè)在圖像處理領(lǐng)域緊密相連但又有所區(qū)別的概念。它們之間的關(guān)系和區(qū)別可以從多個(gè)維度進(jìn)行探討。
    的頭像 發(fā)表于 08-14 09:36 ?1048次閱讀

    計(jì)算機(jī)視覺中的圖像融合

    在許多計(jì)算機(jī)視覺應(yīng)用中(例如機(jī)器人運(yùn)動(dòng)和醫(yī)學(xué)成像),需要將多個(gè)圖像的相關(guān)信息整合到單一圖像中。這種圖像融合可以提供更高的可靠性、準(zhǔn)確性和數(shù)據(jù)質(zhì)量。多視圖融合可以提高圖像分辨率,并恢復(fù)場(chǎng)景的三維表示
    的頭像 發(fā)表于 08-01 08:28 ?1143次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>中的圖像融合

    地平線科研論文入選國際計(jì)算機(jī)視覺頂會(huì)ECCV 2024

    近日,地平線兩篇論文入選國際計(jì)算機(jī)視覺頂會(huì)ECCV 2024,自動(dòng)駕駛算法技術(shù)再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?1466次閱讀
    地平線科研論文入選國際<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>頂會(huì)ECCV 2024

    計(jì)算機(jī)視覺技術(shù)的AI算法模型

    計(jì)算機(jī)視覺技術(shù)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類一樣理解和解釋圖像及視頻中的信息。為了實(shí)現(xiàn)這一目標(biāo),計(jì)算機(jī)視覺技術(shù)依賴于
    的頭像 發(fā)表于 07-24 12:46 ?1816次閱讀