一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌開(kāi)源張量網(wǎng)絡(luò)庫(kù)TensorNetwork,GPU處理提升100倍!

WpOh_rgznai100 ? 來(lái)源:yxw ? 2019-06-06 13:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

世界上許多最嚴(yán)峻的科學(xué)挑戰(zhàn),如開(kāi)發(fā)高溫超導(dǎo)體和理解時(shí)空的本質(zhì),都涉及處理量子系統(tǒng)的復(fù)雜性。然而,這些系統(tǒng)中量子態(tài)的數(shù)量程指數(shù)級(jí)增長(zhǎng),使得暴力計(jì)算并不可行。為了解決該問(wèn)題,數(shù)據(jù)結(jié)構(gòu)采用了張量網(wǎng)絡(luò)的方式。張量網(wǎng)絡(luò)讓人們關(guān)注與現(xiàn)實(shí)世界問(wèn)題最相關(guān)的量子態(tài),如低能態(tài)。張量網(wǎng)絡(luò)已經(jīng)越來(lái)越多地在機(jī)器學(xué)習(xí)中得到應(yīng)用。

然而,目前仍存在相當(dāng)多的一些挑戰(zhàn)阻礙了其在機(jī)器學(xué)習(xí)社區(qū)中的廣泛使用:1)用于加速硬件的生產(chǎn)級(jí)張量網(wǎng)絡(luò)庫(kù)還不能用于大規(guī)模運(yùn)行張量網(wǎng)絡(luò)算法;2)大多數(shù)張量網(wǎng)絡(luò)文獻(xiàn)是面向物理應(yīng)用的,并產(chǎn)生了一種錯(cuò)誤的印象,即需要量子力學(xué)方面的專業(yè)知識(shí)來(lái)理解算法。

為了解決這一問(wèn)題,谷歌 X 實(shí)驗(yàn)室與加拿大Perimeter理論物理研究所(Perimeter Institute for Theoretical Physics )的研究人員合作開(kāi)發(fā)了張量網(wǎng)絡(luò) TensorNetwork,以 TensorFlow 作為后端,針對(duì) GPU 處理進(jìn)行了優(yōu)化。與在 CPU 上計(jì)算工作相比,可以實(shí)現(xiàn)高達(dá) 100 倍的加速。這是一個(gè)全新的開(kāi)源庫(kù),旨在提高張量計(jì)算的效率。

據(jù)悉,研究人員已經(jīng)發(fā)布了一些列論文對(duì)張量網(wǎng)絡(luò)的概念、特性以及應(yīng)用特例等方面進(jìn)行了詳細(xì)闡釋。

工作原理

張量是一種多維數(shù)組,按照順序進(jìn)行分類。例如,一個(gè)普通數(shù)零階張量,也稱為標(biāo)量,一個(gè)向量是一階張量,一個(gè)矩陣是二階張量。雖然低階張量可以很容易地用數(shù)字?jǐn)?shù)組或像 Tijnklm 這樣的數(shù)學(xué)符號(hào)來(lái)表示,但一旦開(kāi)始討論高階張量,這個(gè)符號(hào)就變得非常麻煩。

這一點(diǎn)上,使用圖解記數(shù)法是非常有用的,在這種記數(shù)法中,人們只需畫一個(gè)有許多條線或” 腿 “的圓(或其他形狀)。在這個(gè)符號(hào)中,標(biāo)量只是一個(gè)圓,向量只有一條腿,矩陣有兩條腿等。張量的每條腿也有大小,也就是腿的長(zhǎng)度。

張量的圖解符號(hào)

以這種方式表示張量的好處是簡(jiǎn)潔地編碼數(shù)學(xué)運(yùn)算,例如,將一個(gè)矩陣乘以一個(gè)向量得到另一個(gè)向量,或者兩個(gè)向量相乘得到標(biāo)量。這個(gè)過(guò)程被稱為張量收縮。

張量收縮的圖解表示法

向量和矩陣乘法以及矩陣跡線(即矩陣對(duì)角元素的總和)。

除了這些案例之外,還有以張量收縮模式進(jìn)行編碼以形成一個(gè)新張量的圖形方式。每個(gè)組成張量都有一個(gè)由自己的腿數(shù)決定的順序。連接的腿在圖中形成一條邊,代表收縮,而剩余懸空腿的數(shù)量決定了合成張量的順序。

左:四個(gè)矩陣乘積的表示,即 tr(ABCD),它是一個(gè)標(biāo)量。右:三個(gè)三階張量收縮,三條腿懸空,產(chǎn)生一個(gè)新的三階張量。

雖然這些例子非常簡(jiǎn)單,但張量網(wǎng)絡(luò)通常代表以各種方式收縮的數(shù)百個(gè)張量。用傳統(tǒng)的符號(hào)來(lái)描述這樣一件事情是非常模糊的,這也是 Roger Penrose 在 1971 年發(fā)明圖解符號(hào)(diagrammatic notation)的原因。

實(shí)踐過(guò)程

以一些黑白圖像為例,每個(gè)圖像可以被看做是 N 個(gè)像素值的列表。單個(gè)圖像中的單個(gè)像素可以被獨(dú)熱編碼( one-hot-encoding)成二維向量,并且通過(guò)這些像素編碼組合在一起,我們可以得到 2N 個(gè)維獨(dú)熱編碼的結(jié)果。我們可以將高維向量轉(zhuǎn)化為 N 階張量,然后將圖像集合中所有張量相加,得到量 Ti1,i2,...,iN 的集合。

這聽(tīng)起來(lái)像是一件非常浪費(fèi)時(shí)間的事情。因?yàn)橐赃@種方式對(duì)約 50 像素的圖像進(jìn)行編碼已經(jīng)占用了數(shù)千兆字節(jié)的內(nèi)存。這正是張量網(wǎng)絡(luò)的作用所在。研究人員沒(méi)有直接存儲(chǔ)或操縱張量 T,而是將張量 T 作為張量網(wǎng)絡(luò)內(nèi)的多個(gè)小的張量組合。結(jié)果證明這非常有效。例如,流行的矩陣乘積態(tài)(matrix product state,MPS)網(wǎng)絡(luò)可以將 T 表示為 N 個(gè)較小的張量,從而總參數(shù)量為 N 的線性級(jí),而不是指數(shù)級(jí)。

高階張量 T 用矩陣乘積態(tài)張量網(wǎng)絡(luò)中的許多低階張量來(lái)表示。

但在有效構(gòu)建或操縱大型張量網(wǎng)絡(luò)的同時(shí)又能始終避免使用大量?jī)?nèi)容的需求,是不太明顯的。但事實(shí)證明,這在許多情況下是可能的,這也是張量網(wǎng)絡(luò)廣泛用于量子物理和機(jī)器學(xué)習(xí)領(lǐng)域的原因。Stoudenmire 和 Schwab 使用這種編碼來(lái)構(gòu)建圖像分類模型,展示了張量網(wǎng)絡(luò)的新用途。而 TensorNetwork 庫(kù)旨在推進(jìn)這類工作,研究人員在 TensorNetwork 相關(guān)論文中介紹了該庫(kù)如何應(yīng)用于張量網(wǎng)絡(luò)的操作。

在物理場(chǎng)景中的應(yīng)用性能

TensorNetwork 是一個(gè)針對(duì)張量網(wǎng)絡(luò)算法的通用庫(kù),因此它適用于物理學(xué)場(chǎng)景。逼近量子態(tài)是張量網(wǎng)絡(luò)在物理學(xué)中的一個(gè)典型用例,可說(shuō)明張量網(wǎng)絡(luò)庫(kù)的能力。在另一篇論文《TensorNetwork on TensorFlow: A Spin Chain Application Using Tree Tensor Networks》中,研究人員提出了一種近似樹(shù)張量網(wǎng)絡(luò)(tree tensor network,TTN),并使用張量網(wǎng)絡(luò)庫(kù)實(shí)現(xiàn)了該算法。此外,研究人員還對(duì)比了 CPU 和 GPU 的情況,發(fā)現(xiàn)在使用 GPU 和張量網(wǎng)絡(luò)庫(kù)時(shí),計(jì)算速度顯著提高了近 100 倍。

計(jì)算時(shí)間作為連接維度的函數(shù) X。連接維度( bond dimension )決定了張量網(wǎng)絡(luò)中張量的大小。連接維度越大意味著張量網(wǎng)絡(luò)約強(qiáng)大,但這個(gè)過(guò)程也需要更多的計(jì)算資源。

總結(jié)及未來(lái)工作

本文是講述 TensorNetwork 實(shí)際應(yīng)用案例的第一篇文章,后續(xù)的論文中,研究人員將使用 TensorNetwork 在 MNIST 和 Fashion-MNIST 上執(zhí)行圖像分類,后面還將包括時(shí)序分析、量子電路仿真等。研究人員希望 TensorNetwork 能成為物理學(xué)家和機(jī)器學(xué)習(xí)從業(yè)者的寶貴工具。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19896

    瀏覽量

    235251
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108143
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4948

    瀏覽量

    131248

原文標(biāo)題:谷歌開(kāi)源張量網(wǎng)絡(luò)庫(kù)TensorNetwork,GPU處理提升100倍!

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    DeepSeek最新論文:訓(xùn)練速度提升9,推理速度快11!

    電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)周二xAI發(fā)布了Grok3,這個(gè)馬斯克稱之為“地球上最聰明的AI”搶占了所有人的眼球。 ? 為了打造最強(qiáng)AI大模型,xAI投入了20萬(wàn)塊H100 GPU,計(jì)算資源
    的頭像 發(fā)表于 02-20 11:25 ?2071次閱讀
    DeepSeek最新論文:訓(xùn)練速度<b class='flag-5'>提升</b>9<b class='flag-5'>倍</b>,推理速度快11<b class='flag-5'>倍</b>!

    高效地?cái)U(kuò)展Polars GPU Parquet讀取器

    處理大型數(shù)據(jù)集時(shí),數(shù)據(jù)處理工具的性能至關(guān)重要。Polars 作為一個(gè)以速度和效率著稱的開(kāi)源數(shù)據(jù)處理庫(kù),它提供了由 cuDF 驅(qū)動(dòng)的
    的頭像 發(fā)表于 04-21 17:12 ?318次閱讀
    高效地?cái)U(kuò)展Polars <b class='flag-5'>GPU</b> Parquet讀取器

    無(wú)法調(diào)用GPU插件推理的遠(yuǎn)程張量API怎么解決?

    運(yùn)行了使用 GPU 插件的遠(yuǎn)程張量 API 的推理。但是,它未能共享 OpenCL* 內(nèi)存,但結(jié)果不正確。
    發(fā)表于 03-06 06:13

    OpenVINO?檢測(cè)到GPU,但網(wǎng)絡(luò)無(wú)法加載到GPU插件,為什么?

    OpenVINO?安裝在舊的 Windows 10 版本 Windows? 10 (RS1) 上。 已安裝 GPU 驅(qū)動(dòng)程序版本 25.20.100.6373,檢測(cè)到 GPU,但網(wǎng)絡(luò)無(wú)法加載
    發(fā)表于 03-05 06:01

    摩爾線程完成DeepSeek開(kāi)源庫(kù)FlashMLA和DeepGEMM適配

    自DeepSeek啟動(dòng)“開(kāi)源周”以來(lái),已陸續(xù)開(kāi)源三個(gè)代碼庫(kù)。摩爾線程基于全新MUSA Compute Capability 3.1計(jì)算架構(gòu),可提供原生FP8計(jì)算能力,同時(shí)升級(jí)了高性能線性代數(shù)模板
    的頭像 發(fā)表于 02-27 14:40 ?563次閱讀

    沐曦GPU跑通DeepSeek開(kāi)源代碼庫(kù)FlashMLA

    今日,DeepSeek正式啟動(dòng)"開(kāi)源周"計(jì)劃,首發(fā)代碼庫(kù)FlashMLA一經(jīng)開(kāi)源即引發(fā)全網(wǎng)關(guān)注。截至發(fā)稿,該項(xiàng)目已在GitHub斬獲超7.2K Star!
    的頭像 發(fā)表于 02-25 16:25 ?872次閱讀

    半導(dǎo)體所在光學(xué)張量處理領(lǐng)域取得新進(jìn)展

    在人工神經(jīng)網(wǎng)絡(luò)中,張量作為多維數(shù)組,在數(shù)據(jù)結(jié)構(gòu)中扮演著核心角色。近年來(lái),隨著深度學(xué)習(xí)領(lǐng)域的蓬勃發(fā)展和生成式人工智能技術(shù)的興起,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度持續(xù)攀升,模型參數(shù)量更是呈現(xiàn)出爆炸式的增長(zhǎng)態(tài)勢(shì)。然而
    的頭像 發(fā)表于 01-08 11:38 ?401次閱讀

    開(kāi)源AI模型庫(kù)是干嘛的

    開(kāi)源AI模型庫(kù)是指那些公開(kāi)源代碼、允許自由訪問(wèn)和使用的AI模型集合。這些模型通常經(jīng)過(guò)訓(xùn)練,能夠執(zhí)行特定的任務(wù)。以下,是對(duì)開(kāi)源AI模型庫(kù)的詳細(xì)
    的頭像 發(fā)表于 12-14 10:33 ?790次閱讀

    谷歌正式發(fā)布Gemini 2.0 性能提升近兩

    在智能體時(shí)代,谷歌再次引領(lǐng)技術(shù)潮流,正式發(fā)布了其最新力作——Gemini 2.0。這款A(yù)I模型不僅在性能上實(shí)現(xiàn)了顯著提升,更是在多模態(tài)表現(xiàn)和原生工具應(yīng)用方面展現(xiàn)了前所未有的強(qiáng)大功能。 Gemini
    的頭像 發(fā)表于 12-12 14:22 ?825次閱讀

    RK3568國(guó)產(chǎn)處理器 + TensorFlow框架的張量創(chuàng)建實(shí)驗(yàn)案例分享

    一、實(shí)驗(yàn)?zāi)康?本節(jié)視頻的目的是了解張量定義、了解張量的表示形式、并學(xué)習(xí)基于TensorFlow框架的張量創(chuàng)建方法。 二、實(shí)驗(yàn)原理. 張量定義 1、
    發(fā)表于 12-03 14:43

    芯原股份與開(kāi)源圖形庫(kù)LVGL達(dá)成戰(zhàn)略合作

    為廣泛的嵌入式應(yīng)用提供優(yōu)化和擴(kuò)展的圖形處理能力。作為首批為L(zhǎng)VGL生態(tài)系統(tǒng)提供3D GPU技術(shù)支持的提供商之一,芯原將助力進(jìn)一步提升LVGL圖形庫(kù)的3D圖形渲染能力。
    的頭像 發(fā)表于 11-29 09:20 ?801次閱讀

    《算力芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    在數(shù)據(jù)挖掘工作中,我經(jīng)常需要處理海量數(shù)據(jù)的深度學(xué)習(xí)任務(wù),這讓我對(duì)GPU架構(gòu)和張量運(yùn)算充滿好奇。閱讀《算力芯片》第7-9章,讓我對(duì)這些關(guān)鍵技術(shù)有了全新認(rèn)識(shí)。 GPU架構(gòu)從早期的固定功能流
    發(fā)表于 11-24 17:12

    摩爾線程開(kāi)源高性能線性代數(shù)模板庫(kù)MUTLASS

    近日,摩爾線程宣布開(kāi)源高性能線性代數(shù)模板庫(kù)MUTLASS,以便開(kāi)發(fā)者能夠更高效針對(duì)摩爾線程全功能GPU的MUSA Core及Tensor Core等單元進(jìn)行編程,加速基于國(guó)產(chǎn)GPU的算
    的頭像 發(fā)表于 11-13 11:53 ?786次閱讀

    如何構(gòu)建及優(yōu)化GPU網(wǎng)絡(luò)

    并從計(jì)算節(jié)點(diǎn)成本優(yōu)化、集群網(wǎng)絡(luò)與拓?fù)涞倪x擇等方面論述如何構(gòu)建及優(yōu)化GPU網(wǎng)絡(luò)。
    的頭像 發(fā)表于 11-06 16:03 ?1029次閱讀
    如何構(gòu)建及優(yōu)化<b class='flag-5'>GPU</b>云<b class='flag-5'>網(wǎng)絡(luò)</b>

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--全書概覽

    GPU 中的應(yīng)用歷史 第9章 張量處理器設(shè)計(jì) 9.1 張量的定義 9.2 脈動(dòng)陣列計(jì)算單元 9.3 Volta 架構(gòu)引入張量核心 9.
    發(fā)表于 10-15 22:08