一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用GPU和深度學(xué)習(xí)算法加速十億向量相似性搜索

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Michelle Horton ? 2022-04-08 10:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

基于 GPU 的功能, Facebook AI Research 的一個(gè)團(tuán)隊(duì)開(kāi)發(fā)了一種更快、更有效的 AI 運(yùn)行相似性搜索的方法。這個(gè) study ,發(fā)表于 IEEE 大數(shù)據(jù)交易 ,創(chuàng)建了一種深度學(xué)習(xí)算法,能夠處理和比較來(lái)自媒體的高維數(shù)據(jù),速度明顯更快,同時(shí)與以前的技術(shù)一樣精確。

在一個(gè)數(shù)據(jù)供應(yīng)量不斷增長(zhǎng)的世界中,這項(xiàng)工作有望減輕處理大型庫(kù)所需的計(jì)算能力和時(shí)間。

“搜索和索引[高維數(shù)據(jù)]最直接的技術(shù)是蠻力比較,你需要對(duì)照數(shù)據(jù)庫(kù)中的其他圖像檢查[每個(gè)圖像]。這對(duì)于包含數(shù)十億載體的集合來(lái)說(shuō)是不切實(shí)際的,”研究科萊德和 Facebook 的研究工程師杰夫·約翰遜在一份新聞稿中說(shuō)。

包含數(shù)百萬(wàn)像素和數(shù)據(jù)點(diǎn)的每幅圖像和視頻都會(huì)產(chǎn)生數(shù)十億個(gè)矢量。這些大量的數(shù)據(jù)對(duì)于分析、檢測(cè)、索引和比較向量非常有價(jià)值。計(jì)算大型庫(kù)與依賴于多個(gè)超級(jí)計(jì)算機(jī)組件的傳統(tǒng) CPU 算法的相似性也存在問(wèn)題,從而降低了總體計(jì)算時(shí)間。

研究人員只使用了四個(gè) GPU 和 CUDA ,設(shè)計(jì)了一個(gè) 多 GPU 到宿主和***的算法分析庫(kù)圖像數(shù)據(jù)點(diǎn)。該方法還壓縮數(shù)據(jù),使其更容易,從而更快地進(jìn)行分析。

新算法在 35 分鐘內(nèi)處理了 9500 多萬(wàn)張高維圖像。 10 億個(gè)向量的圖形計(jì)算起來(lái)不到 12 小時(shí)。根據(jù)該研究中的一項(xiàng)比較測(cè)試,使用 128 臺(tái) CPU 服務(wù)器集群處理同一數(shù)據(jù)庫(kù)需要 108 。 7 小時(shí),約長(zhǎng) 8 。 5 倍。

約翰遜說(shuō):“通過(guò)將計(jì)算完全放在 GPU 上,我們可以利用加速器上更快的內(nèi)存,而不是處理 CPU 服務(wù)器上較慢的內(nèi)存,甚至傳統(tǒng)超級(jí)計(jì)算機(jī)集群中較慢的機(jī)器對(duì)機(jī)器網(wǎng)絡(luò)互連?!?。

研究人員表示,這些方法已經(jīng)應(yīng)用于各種各樣的任務(wù),包括翻譯的語(yǔ)言處理搜索。被稱為 Facebook AI 相似性搜索庫(kù)的方法是 開(kāi)源 用于實(shí)現(xiàn)、測(cè)試和比較。

關(guān)于作者

Michelle Horton 是 NVIDIA 的高級(jí)開(kāi)發(fā)人員通信經(jīng)理,擁有通信經(jīng)理和科學(xué)作家的背景。她在 NVIDIA 為開(kāi)發(fā)者博客撰文,重點(diǎn)介紹了開(kāi)發(fā)者使用 NVIDIA 技術(shù)的多種方式。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5298

    瀏覽量

    106255
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4937

    瀏覽量

    131131
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    13

    文章

    9778

    瀏覽量

    87811
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Redis 8 向量搜索實(shí)測(cè):輕松擴(kuò)展至 10 億向量

    艾體寶Redis 8 向量搜索實(shí)測(cè)輕松支持 10 億向量,仍保持低延遲與高吞吐。中位延遲僅200毫秒,90%精確度;處理50并發(fā)搜索請(qǐng)求中位延遲僅1.3秒,95%精確度。
    的頭像 發(fā)表于 05-13 14:00 ?239次閱讀
    Redis 8 <b class='flag-5'>向量</b><b class='flag-5'>搜索</b>實(shí)測(cè):輕松擴(kuò)展至 10 億<b class='flag-5'>向量</b>

    《CST Studio Suite 2024 GPU加速計(jì)算指南》

    許可證模型的加速令牌或SIMULIA統(tǒng)一許可證模型的SimUnit令牌或積分授權(quán)。 4. GPU計(jì)算的啟用 - 交互式模擬:通過(guò)加速對(duì)話框啟用,打開(kāi)求解器對(duì)話框,點(diǎn)擊“加速”按鈕,打
    發(fā)表于 12-16 14:25

    深度學(xué)習(xí)工作負(fù)載中GPU與LPU的主要差異

    當(dāng)前,生成式AI模型的參數(shù)規(guī)模已躍升至數(shù)十億乃至數(shù)萬(wàn)億之巨,遠(yuǎn)遠(yuǎn)超出了傳統(tǒng)CPU的處理范疇。在此背景下,GPU憑借其出色的并行處理能力,已成為人工智能加速領(lǐng)域的中流砥柱。然而,就在GPU
    的頭像 發(fā)表于 12-09 11:01 ?3342次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>工作負(fù)載中<b class='flag-5'>GPU</b>與LPU的主要差異

    GPU深度學(xué)習(xí)中的應(yīng)用 GPUs在圖形設(shè)計(jì)中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)中扮演著至關(guān)重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?1593次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對(duì)深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?1875次閱讀

    PyTorch GPU 加速訓(xùn)練模型方法

    深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作為一個(gè)流行的深度
    的頭像 發(fā)表于 11-05 17:43 ?1381次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是
    的頭像 發(fā)表于 10-27 11:13 ?1320次閱讀

    GPU加速計(jì)算平臺(tái)是什么

    GPU加速計(jì)算平臺(tái),簡(jiǎn)而言之,是利用圖形處理器(GPU)的強(qiáng)大并行計(jì)算能力來(lái)加速科學(xué)計(jì)算、數(shù)據(jù)分析、機(jī)器
    的頭像 發(fā)表于 10-25 09:23 ?584次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速
    的頭像 發(fā)表于 10-25 09:22 ?1187次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?599次閱讀

    【「大模型時(shí)代的基礎(chǔ)架構(gòu)」閱讀體驗(yàn)】+ 第一、二章學(xué)習(xí)感受

    常用的機(jī)器學(xué)習(xí)算法,重點(diǎn)剖析了一元線性回歸算法,由此引出機(jī)器學(xué)習(xí)算法的運(yùn)算特征,此后分別描述了使用CPU、
    發(fā)表于 10-10 10:36

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    并行計(jì)算的能力,可以在硬件層面并行處理大量數(shù)據(jù)。這種并行處理能力使得 FPGA 在執(zhí)行深度學(xué)習(xí)算法時(shí)速度遠(yuǎn)超傳統(tǒng)處理器,能夠提供更低的延遲和更高的吞吐量,從而加速模型訓(xùn)練和推理過(guò)程,滿
    發(fā)表于 09-27 20:53

    深度學(xué)習(xí)算法在嵌入式平臺(tái)上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源
    的頭像 發(fā)表于 07-15 10:03 ?3125次閱讀

    深度學(xué)習(xí)算法在集成電路測(cè)試中的應(yīng)用

    隨著半導(dǎo)體技術(shù)的快速發(fā)展,集成電路(IC)的復(fù)雜和集成度不斷提高,對(duì)測(cè)試技術(shù)的要求也日益增加。深度學(xué)習(xí)算法作為一種強(qiáng)大的數(shù)據(jù)處理和模式識(shí)別工具,在集成電路測(cè)試領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛
    的頭像 發(fā)表于 07-15 09:48 ?1838次閱讀

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實(shí)現(xiàn)深度學(xué)習(xí)算法是一個(gè)復(fù)雜但強(qiáng)大的過(guò)程,可以應(yīng)用于各種領(lǐng)域,如圖像識(shí)別、自然語(yǔ)言處理、時(shí)間序列預(yù)測(cè)等。這里,我將概述一個(gè)基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準(zhǔn)備、模型設(shè)計(jì)、訓(xùn)練過(guò)程、以及測(cè)試和評(píng)估,并提供一個(gè)基于Mat
    的頭像 發(fā)表于 07-14 14:21 ?3609次閱讀