一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2023年AI技術(shù)科普:算法、算力、數(shù)據(jù)及應(yīng)用

架構(gòu)師技術(shù)聯(lián)盟 ? 來源:架構(gòu)師技術(shù)聯(lián)盟 ? 2023-04-16 10:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

大模型是AI開發(fā)的新范式,是人工智能邁向通用智能的里程碑:大模型指通過在大規(guī)模寬泛的數(shù)據(jù)上進行訓練后能適應(yīng)一系列下游任務(wù)的模型,本質(zhì)依舊是基于統(tǒng)計學的語言模型,只不過“突現(xiàn)能力”賦予其強大的推理能力。大模型的訓練和推理都會用到AI芯片的算力支持,在數(shù)據(jù)和算法相同情況下,算力是大模型發(fā)展的關(guān)鍵,是人工智能時代的“石油”。

1.算法:大模型——人工智能邁向通用智能的里程碑

大模型就是Foundation Model(基礎(chǔ)模型),指通過在大規(guī)模寬泛的數(shù)據(jù)上進行訓練后能適應(yīng)一系列下游任務(wù)的模型。大模型兼具“大規(guī)?!焙汀邦A(yù)訓練”兩種屬性,面向?qū)嶋H任務(wù)建模前需在海量通用數(shù)據(jù)上進行預(yù)先訓練,能大幅提升人工智能的泛化性、通用性、實用性,是人工智能邁向通用智能的里程碑技術(shù)。

a1e4226c-dbfc-11ed-bfe3-dac502259ad0.png

大模型的本質(zhì)依舊是基于統(tǒng)計學的語言模型,“突現(xiàn)能力”賦予其強大的推理能力。當前幾乎所有參數(shù)規(guī)模超過千億的大語言模型都采取GPT模式。近些年來,大型語言模型研究的發(fā)展主要有三條技術(shù)路線:Bert模式、GPT模式以及混合模式。Bert模式適用于理解類、做理解類、某個場景的具體任務(wù),專而輕,2019年后基本上就沒有什么標志性的新模型出現(xiàn);混合模式大部分則是由國內(nèi)采用;多數(shù)主流大語言模型走的還是GPT模式,2022年底在GPT-3.5的基礎(chǔ)上產(chǎn)生了ChatGPT,GPT技術(shù)路線愈發(fā)趨于繁榮。

a1ec964a-dbfc-11ed-bfe3-dac502259ad0.png

GPT4作為人工智能領(lǐng)域最先進的語言模型,在如下四個方面有較大的改進。

1)多模態(tài):GPT4可以接受文本和圖像形式的prompt,在人類給定由散布的文本和圖像組成的輸入的情況下生成相應(yīng)的文本輸出(自然語言、代碼等);

2)多語言:在測試的26種語言的24種中,GPT-4優(yōu)于GPT-3.5和其他大語言模型(Chinchilla,PaLM)的英語語言性能;

3)“記憶力”:GPT-4的最大token數(shù)為32,768,即2^15,相當于大約64,000個單詞或50頁的文字,遠超GPT-3.5和舊版ChatGPT的4,096個token;

4)個性化:GPT-4比GPT-3.5更原生地集成了可控性,用戶將能夠?qū)ⅰ熬哂泄潭ㄈ唛L、語氣和風格的經(jīng)典ChatGPT個性”更改為更適合他們需要的東西。

2.算力:AI訓練的基礎(chǔ)設(shè)施

大模型算力成本主要分為初始訓練成本和后續(xù)運營成本。

初始訓練:根據(jù)openAI官網(wǎng)數(shù)據(jù),每個token(token是服務(wù)端生成的一串字符串,以作客戶端進行請求的一個令牌)的訓練成本通常約為6N FLOPS(FLOPS指每秒浮點運算次數(shù),理解為計算速度,可以用來衡量硬件的性能),其中N是LLM(大型語言模型)的參數(shù)數(shù)量。1750億參數(shù)模型的GPT-3是在3000億token上進行訓練的。根據(jù)openAI官網(wǎng)數(shù)據(jù),在訓練過程中,模型的FLOPS利用率為46.2%。我們假設(shè)訓練時間為1個月,采用英偉達A100進行訓練計算(峰值計算能力為312 TFLOPS FP16/FP32),則測算結(jié)果為需要843顆英偉達A100芯片。

a1f5b16c-dbfc-11ed-bfe3-dac502259ad0.png

運營(推理)成本:運營階段所需算力量與使用者數(shù)量緊密相關(guān)。根據(jù)openAI官網(wǎng)數(shù)據(jù),每個token的推理成本通常約為2N FLOPS,其中N是LLM的參數(shù)數(shù)量。根據(jù)openAI官網(wǎng)數(shù)據(jù),在訓練過程中,模型的FLOPS利用率為21.3%。同樣采用英偉達A100進行推理計算(峰值計算能力為312 TFLOPS FP16/FP32)。我們假設(shè)GPT-3每日5000萬活躍用戶,每個用戶提10個問題,每個問題回答400字,則測算結(jié)果為需要16255顆英偉達A100芯片。

a1fc639a-dbfc-11ed-bfe3-dac502259ad0.png

GPT-4為多模態(tài)大模型,對算力要求相比GPT-3會提升10倍。GPT-4的收費是8kcontext為$0.03/1k token,是GPT-3.5-turbo收費的15倍($0.002 / 1K tokens),因此我們推斷GPT-4的參數(shù)量是GPT-3的10倍以上,預(yù)計GPT-4的算力需求是GPT-3的10倍以上。

國產(chǎn)大模型有望帶動國內(nèi)新增A100出貨量超200萬顆,使得中國算力市場空間增加2倍以上。我們假設(shè)國內(nèi)百度,華為,阿里,騰訊,字節(jié)等前10位頭部大廠都會發(fā)布自己的大模型。

加速卡國產(chǎn)化率較低,美國制裁加速。根據(jù)IDC數(shù)據(jù),2021年,中國加速卡市場中Nvidia占據(jù)超過80%市場份額。

a205b4c2-dbfc-11ed-bfe3-dac502259ad0.png

英偉達推出中國特供版A800,算力與A100基本一致。2022年11月8日,英偉達推出A800 GPU,將是面向中國客戶的A100 GPU的替代產(chǎn)品。A800符合美國政府關(guān)于減少出口管制的明確測試,并且不能通過編程來超過它。A800 GPU在算力上與A100保持一致,但增加了40GB顯存的PCIe版本,但在NVLink互聯(lián)速度上,A800相較于A100下降了200GB/s的速度。同時,A800 80GB SXM版本目前已經(jīng)不支持16塊GPU的成套系統(tǒng),上限被限制在8塊??偟膩砜矗珹800能夠滿足國內(nèi)市場需求,是A100的平替版本。

3.數(shù)據(jù):AI發(fā)展的驅(qū)動力

數(shù)據(jù)資源是AI產(chǎn)業(yè)發(fā)展的重要驅(qū)動力之一。數(shù)據(jù)集作為數(shù)據(jù)資源的核心組成部分,是指經(jīng)過專業(yè)化設(shè)計、采集、清洗、標注和管理,生產(chǎn)出來的專供人工智能算法模型訓練的數(shù)據(jù)。

大模型的訓練數(shù)據(jù)主要來自于維基百科、書籍、期刊、Reddit社交新聞?wù)军c、Common Crawl和其他數(shù)據(jù)集。OpenAI雖沒有直接公開ChatGPT的相關(guān)訓練數(shù)據(jù)來源和細節(jié),但可以從近些年業(yè)界公布過的其他大模型的訓練數(shù)據(jù)推測出ChatGPT的訓練數(shù)據(jù)來源,近幾年大模型訓練采用的數(shù)據(jù)來源基本類似。國內(nèi)大模型的數(shù)據(jù)來源和自身優(yōu)勢業(yè)務(wù)有較強相關(guān)性,如百度文心一言大模型的來源主要基于互聯(lián)網(wǎng)公開數(shù)據(jù),包括網(wǎng)頁、搜索、圖片、語音日均調(diào)用數(shù)據(jù),以及知識圖譜等。

a20e6090-dbfc-11ed-bfe3-dac502259ad0.png

GPT4依靠大量多模態(tài)數(shù)據(jù)訓練。GPT4是一個大規(guī)模的多模態(tài)模型,相比于此前的語言生成模型,數(shù)據(jù)方面最大的改進之一就是突破純文字的模態(tài),增加了圖像模態(tài)的輸入,具有強大的圖像理解能力,即在預(yù)練習階段輸入任意順序的文本和圖畫,圖畫經(jīng)過Vision Encoder向量化、文本經(jīng)過普通transformer向量化,兩者組成多模的句向量,練習目標仍為next-word generation。根據(jù)騰訊云開發(fā)者推測,GPT4訓練數(shù)據(jù)中還額外增加了包含正誤數(shù)學問題、強弱推理、矛盾一致陳述及各種意識形態(tài)的數(shù)據(jù),數(shù)據(jù)量可能是GPT3.5(45TB數(shù)據(jù))的190倍。

4.應(yīng)用:AI的星辰大海

AI時代已經(jīng)來臨,最大的市場將是被AI賦能的下游應(yīng)用市場。如果說AI是第四次工業(yè)革命,那么正如前三次工業(yè)革命,最大的市場將是被AI賦能的下游應(yīng)用市場。本輪革命性的產(chǎn)品ChatGPT將極大地提升內(nèi)容生產(chǎn)力,率先落地于AIGC領(lǐng)域,打開其產(chǎn)業(yè)的想象邊界。文本生成、代碼生成、圖像生成以及智能客服將是能直接賦予給下游行業(yè)的能力,打開其產(chǎn)業(yè)想象的邊界。

最直接的應(yīng)用在內(nèi)容創(chuàng)作領(lǐng)域。ChatGPT的功能核心是基于文本的理解和分析,與內(nèi)容創(chuàng)作行業(yè)趨同。ChatGPT可用于創(chuàng)建新聞文章、博客文章甚至小說等內(nèi)容,它可以生成原創(chuàng)且連貫的內(nèi)容,為內(nèi)容創(chuàng)作者節(jié)省時間和資源。整體生成式AI已用于創(chuàng)建圖像,視頻,3D對象,Skyboxes等。這大大節(jié)省了創(chuàng)作時間,同時帶來了多樣的創(chuàng)作風格。

ChatGPT解決了機器人的痛點。ChatGPT開啟了一種新的機器人范式,允許潛在的非技術(shù)型用戶參與到回路之中,ChatGPT可以為機器人場景生成代碼。在沒有任何微調(diào)的情況下,利用LLM的知識來控制不同的機器人動作,以完成各種任務(wù)。ChatGPT大大改善了機器人對指令的理解,并且不同于以前單一、明確的任務(wù),機器人可以執(zhí)行復合型的任務(wù)。

ChatGPT在芯片設(shè)計領(lǐng)域的應(yīng)用。傳統(tǒng)的芯片設(shè)計強烈依賴模板而忽視了大量可以復用的優(yōu)秀數(shù)據(jù),同時數(shù)據(jù)量大導致ChatGPT泛化性更好。此外芯片硬件模塊相對單一,有一些成熟范式,芯片設(shè)計代碼復雜但人工不足,這些都與ChatGPT有很好的互補。AI使得芯片開發(fā)成本降低、周期縮短,具備足夠多訓練數(shù)據(jù)和AI能力的芯片設(shè)計公司競爭優(yōu)勢可能會擴大。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4710

    瀏覽量

    95392
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49028

    瀏覽量

    249501
  • ai技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    1308

    瀏覽量

    25158

原文標題:2023年AI技術(shù)科普:算法、算力、數(shù)據(jù)及應(yīng)用

文章出處:【微信號:架構(gòu)師技術(shù)聯(lián)盟,微信公眾號:架構(gòu)師技術(shù)聯(lián)盟】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    網(wǎng)絡(luò)的“神經(jīng)突觸”:AI互聯(lián)技術(shù)如何重構(gòu)分布式訓練范式

    ? 電子發(fā)燒友網(wǎng)綜合報道 隨著AI技術(shù)迅猛發(fā)展,尤其是大型語言模型的興起,對于的需求呈現(xiàn)出爆炸性增長。這不僅推動了智中心的建設(shè),還對網(wǎng)
    的頭像 發(fā)表于 06-08 08:11 ?6427次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>網(wǎng)絡(luò)的“神經(jīng)突觸”:<b class='flag-5'>AI</b>互聯(lián)<b class='flag-5'>技術(shù)</b>如何重構(gòu)分布式訓練范式

    芯片的生態(tài)突圍與革命

    電子發(fā)燒友網(wǎng)報道(文 / 李彎彎)大芯片,即具備強大計算能力的集成電路芯片,主要應(yīng)用于高性能計算(HPC)、人工智能(AI)、數(shù)據(jù)中心、自動駕駛等需要海量
    的頭像 發(fā)表于 04-13 00:02 ?1726次閱讀

    DeepSeek推動AI需求:800G光模塊的關(guān)鍵作用

    隨著人工智能技術(shù)的飛速發(fā)展,AI需求正以前所未有的速度增長。DeepSeek等大模型的訓練與推理任務(wù)對
    發(fā)表于 03-25 12:00

    接棒,慧榮科技以主控技術(shù)突破AI存儲極限

    ? 過去的AI大模型通常走大磚飛的路子,通過疊加更強的,來推動AI大模型的發(fā)展。但DeepSeek通過
    的頭像 發(fā)表于 03-19 01:29 ?1790次閱讀
    存<b class='flag-5'>力</b>接棒<b class='flag-5'>算</b><b class='flag-5'>力</b>,慧榮科技以主控<b class='flag-5'>技術(shù)</b>突破<b class='flag-5'>AI</b>存儲極限

    信而泰CCL仿真:解鎖AI極限,智中心網(wǎng)絡(luò)性能躍升之道

    中心RoCE網(wǎng)絡(luò)提供精準評估方案,助力企業(yè)突破瓶頸,釋放AI澎湃動力! 什么是智中心 智中心(AIDC,Artificial Int
    的頭像 發(fā)表于 02-24 17:34 ?450次閱讀
    信而泰CCL仿真:解鎖<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>極限,智<b class='flag-5'>算</b>中心網(wǎng)絡(luò)性能躍升之道

    AI:智能時代的核心驅(qū)動力

    引言在當今數(shù)字化時代,的重要性不言而喻。12月28日,央視和國務(wù)院國資委聯(lián)合制作的紀錄片《大國基石》第三期《引擎》中所強調(diào)的“
    的頭像 發(fā)表于 01-22 12:58 ?736次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>:智能時代的核心驅(qū)動力

    中心的如何衡量?

    作為當下科技發(fā)展的重要基礎(chǔ)設(shè)施,其的衡量關(guān)乎其能否高效支撐人工智能、大數(shù)據(jù)分析等智能應(yīng)用的運行。以下是對智中心算衡量的詳細闡述:一、
    的頭像 發(fā)表于 01-16 14:03 ?2497次閱讀
    <b class='flag-5'>算</b>智<b class='flag-5'>算</b>中心的<b class='flag-5'>算</b><b class='flag-5'>力</b>如何衡量?

    企業(yè)AI租賃模式的好處

    構(gòu)建和維護一個高效、可擴展的AI基礎(chǔ)設(shè)施,不僅需要巨額的初期投資,還涉及復雜的運維管理和持續(xù)的技術(shù)升級。而AI
    的頭像 發(fā)表于 12-24 10:49 ?1213次閱讀

    企業(yè)AI租賃是什么

    企業(yè)AI租賃是指企業(yè)通過互聯(lián)網(wǎng)向?qū)I(yè)的提供商租用所需的計算資源,以滿足其AI應(yīng)用的需求。
    的頭像 發(fā)表于 11-14 09:30 ?2410次閱讀

    技術(shù)科普 | 芯片設(shè)計中的LEF文件淺析

    技術(shù)科普 | 芯片設(shè)計中的LEF文件淺析
    的頭像 發(fā)表于 11-13 01:03 ?757次閱讀
    <b class='flag-5'>技術(shù)科普</b> | 芯片設(shè)計中的LEF文件淺析

    GPU開發(fā)平臺是什么

    隨著AI技術(shù)的廣泛應(yīng)用,需求呈現(xiàn)出爆發(fā)式增長。AI
    的頭像 發(fā)表于 10-31 10:31 ?667次閱讀

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】--全書概覽

    1章 從TOP500和MLPerf看芯片格局 1.1科學最前沿TOP500 1.2 AI
    發(fā)表于 10-15 22:08

    名單公布!【書籍評測活動NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    ,在全球范圍內(nèi),對于推動科技進步、經(jīng)濟發(fā)展及社會整體的運作具有至關(guān)重要的作用。隨著信息技術(shù)的高速發(fā)展,高性能計算(HPC)和人工智能(AI)等技術(shù)在多個領(lǐng)域的應(yīng)用變得日益廣泛,芯片
    發(fā)表于 09-02 10:09

    大模型時代的需求

    現(xiàn)在AI已進入大模型時代,各企業(yè)都爭相部署大模型,但如何保證大模型的,以及相關(guān)的穩(wěn)定性和性能,是一個極為重要的問題,帶著這個極為重要的問題,我需要在此書中找到答案。
    發(fā)表于 08-20 09:04