一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學習中最核心的問題之一:訓練數(shù)據(jù)

mK5P_AItists ? 2017-12-25 10:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概要:今天我們將討論深度學習中最核心的問題之一:訓練數(shù)據(jù)。

Hello World!

今天我們將討論深度學習中最核心的問題之一:訓練數(shù)據(jù)。深度學習已經(jīng)在現(xiàn)實世界得到了廣泛運用,例如:無人駕駛汽車,收據(jù)識別,道路缺陷自動檢測,以及交互式電影推薦等等。

我們大部分的時間并不是花在構(gòu)建神經(jīng)網(wǎng)絡(luò)上,而是處理訓練數(shù)據(jù)。深度學習需要大量的數(shù)據(jù),然而有時候僅僅標注一張圖像就需要花費一個小時的時間!所以我們一直在考慮:能否找到一個方法來提升我們的工作效率?是的,我們找到了。

現(xiàn)在,我們很自豪的將Supervisely令人驚嘆的新特性公諸于世:支持AI的標注工具來更快速地分割圖像上的對象。

在本文中,我們將重點介紹計算機視覺,但是,類似的思路也可用在大量不同類型的數(shù)據(jù)上,例如文本數(shù)據(jù)、音頻數(shù)據(jù)、傳感器數(shù)據(jù)、醫(yī)療數(shù)據(jù)等等。

重點:數(shù)據(jù)越多,AI越智能

讓我們以吳恩達非常著名的幻燈片開始,首先對其進行小小的修改。

深度學習中最核心的問題之一:訓練數(shù)據(jù)

深度學習的表現(xiàn)優(yōu)于其它機器學習算法早已不是什么秘密。從上圖可以得出以下結(jié)論。

結(jié)論 0:AI產(chǎn)品需要數(shù)據(jù)。

結(jié)論 1:獲得的數(shù)據(jù)越多,AI就會越智能。

結(jié)論 2:行業(yè)巨頭所擁有的數(shù)據(jù)量遠超其它企業(yè)。

結(jié)論 3:AI產(chǎn)品的質(zhì)量差距是由其所擁有的數(shù)據(jù)量決定的。

因此,網(wǎng)絡(luò)架構(gòu)對AI系統(tǒng)的表現(xiàn)影響很大,但是訓練數(shù)據(jù)的多少對系統(tǒng)表現(xiàn)的影響最大。致力于數(shù)據(jù)收集的公司可以提供更好的AI產(chǎn)品并獲得巨大的成功。

常見錯誤:AI全都是關(guān)于構(gòu)建神經(jīng)網(wǎng)絡(luò)的。

深度學習中最核心的問題之一:訓練數(shù)據(jù)

如上圖所示,當人們一想到AI,就會想到算法,但是也應(yīng)該考慮到數(shù)據(jù)。算法是免費的:谷歌和其他巨頭更傾向于向世界分享他們最先進的(state-of-the-art)研究成果,但是他們從不會共享數(shù)據(jù)。

許多人已經(jīng)跳上了人工智能炒作的列車,并且創(chuàng)造了極棒的構(gòu)建和訓練神經(jīng)網(wǎng)絡(luò)的工具,然而關(guān)注訓練數(shù)據(jù)的人卻少的可憐。當企業(yè)打算將人工智能轉(zhuǎn)換成實際應(yīng)用時,會傾盡全部工具用于訓練神經(jīng)網(wǎng)絡(luò),卻沒有用于開發(fā)訓練數(shù)據(jù)上的工具。

吳恩達說論文已經(jīng)足夠了,現(xiàn)在讓我們來構(gòu)建AI吧!

好主意,我們完全贊同。目前有許多論文和開源成果論述了最先進的(state of the art )且涵蓋所有的實際應(yīng)用的神經(jīng)網(wǎng)絡(luò)架構(gòu)。想象一下,你獲得了一個價值10億美元的新想法。首先想到的肯定不會是:我將使用哪種類型的神經(jīng)網(wǎng)絡(luò)?最有可能的是:我在哪里可以得到能建立MVP的數(shù)據(jù)?

讓我們來尋找一些有效的方法訓練數(shù)據(jù),可行的方法如下:

1.開源數(shù)據(jù)集。深度神經(jīng)網(wǎng)絡(luò)(DNN)的價值是用于訓練數(shù)據(jù),在計算機視覺研究中,大多數(shù)可用數(shù)據(jù)都是針對特定研究小組所研究的課題而設(shè)計的,通常對于新研究人員來說,需要搜集更多額外的數(shù)據(jù)去解決他們自己的課題。這就是在大多數(shù)情況下開源數(shù)據(jù)集并不是一個解決方案的原因。

2.人工數(shù)據(jù)。它適用于類似OCR文字識別或者是文本檢測,然而很多實例(如人臉識別,醫(yī)學影像等)表明人工數(shù)據(jù)很難甚至是不可能產(chǎn)生,通常的做法是將人工數(shù)據(jù)和帶標注的圖像相結(jié)合使用。

3.Web。自動收集高質(zhì)量的訓練數(shù)據(jù)是很難的,通常我們會對收集的訓練數(shù)據(jù)進行修正和過濾。

4.外面訂購圖像標注服務(wù)。一些公司提供這樣的服務(wù),我們也不例外。但其很大的缺點是不能進行快速的迭代。通常,即使是數(shù)據(jù)專家也不確定如何標注。通常的順序是做迭代研究:標注圖像的一小部分→建立神經(jīng)網(wǎng)絡(luò)架構(gòu) →檢查結(jié)果。每個新的標注都將會影響后續(xù)的標注。

5.手動標注圖像。僅適用于你自己的工作,領(lǐng)域內(nèi)的專業(yè)知識是很關(guān)鍵的。醫(yī)學影像就是個很好的例子:只有醫(yī)生知道腫瘤在哪里。手動注解圖像這個過程很耗時,但是如果你想要一個定制化的AI,也沒有其他辦法。

正如我們所看到的,其實并沒有萬能方法,最常見的方案是創(chuàng)建我們自己任務(wù)特定的訓練數(shù)據(jù),形成人工數(shù)據(jù),如果可能的話再整合到公共數(shù)據(jù)集中。這其中的關(guān)鍵是,你必須為特定的任務(wù)建立自己獨一無二的數(shù)據(jù)集。

讓我們深入學習來構(gòu)建深度學習

深度學習接近于數(shù)據(jù)匱乏,且其性能極度依賴于可供訓練數(shù)據(jù)的數(shù)量。

通過實例我們可以看出標注的過程有多困難。這里是標注過程所花費時間的一些原始數(shù)據(jù),例如使用Cityscapes數(shù)據(jù)集(用于無人駕駛),在對Cityscapes數(shù)據(jù)集中單個圖像的精細像素級的標注平均需要花費1.5h,如果標注5000個圖像,則需要花費5000*1.5=7500h。假設(shè)1h=$10(美國最低工資),那么僅僅是標注該數(shù)據(jù)集就需要花費約$7.5萬左右(不包括其他額外的成本)。同樣吃驚的是,像這樣一家擁有1000名做無人駕駛圖像標注員工的公司,只不過是冰山一角。

神經(jīng)網(wǎng)絡(luò)能否幫助我們提高圖像標注的效率呢?我們可不是第一個試圖回答這一問題的人。

半自動化實例標注很早就開始使用了, 有很多經(jīng)典的方法可提高標注的效率,如超像素塊算法(Superpixels),分水嶺算法(Watershed),GrabCut分割算法等。近幾年,研究人員試圖用深度學習完成這一任務(wù)(link1, link2, link3),這些經(jīng)典的算法有很多缺陷,需要很多超參數(shù)對每一幅圖像進行檢索,難以對結(jié)果進行標準化和修正。最新的基于深度學習的成果要好很多,但在大多情況下這些成果是不開源的。我們是第一個為每個人提供基于AI的標注工具的人,我們自己獨立設(shè)計了與上邊三個links概念類似的神經(jīng)網(wǎng)絡(luò)架構(gòu)。它有一個很大的優(yōu)勢:我們的神經(jīng)網(wǎng)絡(luò)不需要對對象實例進行分類。這就意味著,可以對行人、汽車、路面上的凹陷處、醫(yī)學影像上的腫瘤、室內(nèi)場景、食物成分、衛(wèi)星上的物體等等進行分割。

那么,它是如何工作的呢?如下圖所示:

你只需要剪裁感興趣的對象,然后神經(jīng)網(wǎng)絡(luò)將會對其進行分割。人機交互非常重要,你可以點擊圖像的內(nèi)部和外部標簽進行修正錯誤。

語義分割是將圖像劃分為多個預(yù)定義語義類別的區(qū)域,與它不同的是,我們的交互式圖像分割旨在根據(jù)用戶的輸入提取其感興趣的對象。

交互式分割的主要目標是根據(jù)用戶最少的操作,即可精確的提取對象以改善整體的用戶體驗,因此我們大大提高了標注的效率。

這是我們的第一次嘗試,當然在有些情況下,好的標注依然會有缺陷。我們會不斷的提高質(zhì)量,并做出適用于領(lǐng)域適應(yīng)性的簡單方法:在不編碼的情況下,為適應(yīng)內(nèi)部特定的任務(wù)自定義工具。

結(jié)語

數(shù)據(jù)是深度學習的關(guān)鍵,訓練數(shù)據(jù)是費時和高代價的。但是我們和深度學習的團體積極嘗試著去解決訓練數(shù)據(jù)的問題,并且成功的邁出了第一步,希望能夠在以后提供更好的解決方案。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91869
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122794

原文標題:深度學習的核心:掌握訓練數(shù)據(jù)的方法

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    海思SD3403邊緣計算AI數(shù)據(jù)訓練概述

    AI數(shù)據(jù)訓練:基于用戶特定應(yīng)用場景,用戶采集照片或視頻,通過AI數(shù)據(jù)訓練工程師**(用戶公司****員工)** ,進行特征標定后,將標定好的訓練
    發(fā)表于 04-28 11:11

    數(shù)據(jù)采集在AI行業(yè)的應(yīng)用分析

    人工智能(AI)作為21世紀最具革命性的技術(shù)之一,正在深刻改變各行各業(yè)。AI的核心驅(qū)動力是數(shù)據(jù),而數(shù)據(jù)采集則是AI發(fā)展的基石。無論是機器學習
    的頭像 發(fā)表于 03-07 14:30 ?409次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學習的關(guān)系

    ),是種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法進行訓練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、個或多個隱藏層和輸出層組成,通過逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度
    的頭像 發(fā)表于 02-12 15:15 ?861次閱讀

    GPU在深度學習中的應(yīng)用 GPUs在圖形設(shè)計中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其核心部分,已經(jīng)成為推動技術(shù)進步的重要力量。GPU(圖形處理單元)在深度學習中扮演著至關(guān)重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?1619次閱讀

    NPU在深度學習中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習作為其核心驅(qū)動力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為
    的頭像 發(fā)表于 11-14 15:17 ?1916次閱讀

    pcie在深度學習中的應(yīng)用

    深度學習模型通常需要大量的數(shù)據(jù)和強大的計算能力來訓練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學習
    的頭像 發(fā)表于 11-13 10:39 ?1351次閱讀

    深度學習模型的魯棒性優(yōu)化

    深度學習模型的魯棒性優(yōu)化是個復雜但至關(guān)重要的任務(wù),它涉及多個方面的技術(shù)和策略。以下是些關(guān)鍵的優(yōu)化方法:
    的頭像 發(fā)表于 11-11 10:25 ?1198次閱讀

    PyTorch GPU 加速訓練模型方法

    深度學習領(lǐng)域,GPU加速訓練模型已經(jīng)成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為
    的頭像 發(fā)表于 11-05 17:43 ?1408次閱讀

    Pytorch深度學習訓練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學習訓練。
    的頭像 發(fā)表于 10-28 14:05 ?657次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>訓練</b>的方法

    GPU深度學習應(yīng)用案例

    GPU在深度學習中的應(yīng)用廣泛且重要,以下是些GPU深度學習應(yīng)用案例: 、圖像識別 圖像識別是
    的頭像 發(fā)表于 10-27 11:13 ?1368次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學習模型是當前硬件加速領(lǐng)域的個熱門研究方向。以下是些FPGA加速深度
    的頭像 發(fā)表于 10-25 09:22 ?1234次閱讀

    AI大模型的訓練數(shù)據(jù)來源分析

    AI大模型的訓練數(shù)據(jù)來源廣泛且多元化,這些數(shù)據(jù)源對于構(gòu)建和優(yōu)化AI模型至關(guān)重要。以下是對AI大模型訓練數(shù)據(jù)來源的分析:
    的頭像 發(fā)表于 10-23 15:32 ?3675次閱讀

    AI大模型與深度學習的關(guān)系

    人類的學習過程,實現(xiàn)對復雜數(shù)據(jù)學習和識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進行訓練和推理。深度
    的頭像 發(fā)表于 10-23 15:25 ?2891次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓練的基礎(chǔ)模型下的持續(xù)學習

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓練的基礎(chǔ)模型下的持續(xù)學習」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學術(shù)盛宴!|直播信息報告題目預(yù)訓練的基礎(chǔ)模型下的持續(xù)
    的頭像 發(fā)表于 10-18 08:09 ?595次閱讀
    直播預(yù)約 |<b class='flag-5'>數(shù)據(jù)</b>智能系列講座第4期:預(yù)<b class='flag-5'>訓練</b>的基礎(chǔ)模型下的持續(xù)<b class='flag-5'>學習</b>

    FPGA做深度學習能走多遠?

    并行計算的能力,可以在硬件層面并行處理大量數(shù)據(jù)。這種并行處理能力使得 FPGA 在執(zhí)行深度學習算法時速度遠超傳統(tǒng)處理器,能夠提供更低的延遲和更高的吞吐量,從而加速模型訓練和推理過程,滿
    發(fā)表于 09-27 20:53