一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達(dá)聯(lián)手推出StarCoder2 LLM系列模型,成代碼生成領(lǐng)域新標(biāo)桿

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-02-29 10:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近期,英偉達(dá)與Hugging Face及ServiceNow攜手推出新品StarCoder2系列LLMs模型,致力于在代碼生成領(lǐng)域建立新的行業(yè)標(biāo)桿,憑借諸多優(yōu)勢(shì)凸顯性能、透明度以及經(jīng)濟(jì)性。

此系列共包含三款模型,其中ServiceNow負(fù)責(zé)訓(xùn)練的30億參數(shù)模型、Hugging Face訓(xùn)練的70億參數(shù)模型以及英偉達(dá)訓(xùn)練的150億參數(shù)模型。

新一代模型得以實(shí)現(xiàn),借助Stack v2代碼集,該數(shù)據(jù)集容量是上一代Stack v1的7倍之多。此外,創(chuàng)新性的訓(xùn)練技術(shù)使其能夠更精準(zhǔn)地解析低資源編程語言、數(shù)學(xué)和程序源代碼討論等內(nèi)容。

經(jīng)過619門編程語言的訓(xùn)練后,StarCoder2支持多種專業(yè)任務(wù),例如源代碼生成、工作流創(chuàng)建以及文本摘要等。英偉達(dá)承諾,開發(fā)者可借此進(jìn)行代碼填充、高層次代碼摘要以及代碼片段搜索等操作,以提升工作效率。

相比初版StarCoder LLM,這款30億參數(shù)的最新模型對(duì)優(yōu)質(zhì)參數(shù)進(jìn)行了更為精確的篩選,性能相當(dāng)于初版150億參數(shù)模型的StarCoder。

特別值得關(guān)注的是,StarCoder2特許使用BigCode Open RAIL-M許可證,無需支付任何版權(quán)費(fèi)用即可享受使用權(quán)。IT之家建議有需用戶前往BigCode項(xiàng)目GitHub頁面下載源代碼,同時(shí)亦可在Hugging Face獲取模型信息。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編程語言
    +關(guān)注

    關(guān)注

    10

    文章

    1956

    瀏覽量

    36651
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25446
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3952

    瀏覽量

    93759
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型LLM)的開發(fā)已經(jīng)成為一個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任
    的頭像 發(fā)表于 04-30 18:34 ?509次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) <b class='flag-5'>LLM</b>語言<b class='flag-5'>模型</b>

    詳解 LLM 推理模型的現(xiàn)狀

    領(lǐng)域的最新研究進(jìn)展,特別是自DeepSeekR1發(fā)布后興起的推理時(shí)間計(jì)算擴(kuò)展相關(guān)內(nèi)容。在LLM中實(shí)施和改進(jìn)推理簡(jiǎn)單來說,基于LLM的推理模型是一種旨在通過
    的頭像 發(fā)表于 04-03 12:09 ?502次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的現(xiàn)狀

    GMI Cloud推出基于英偉達(dá)H200的DeepSeek系列模型

    近日,GMI Cloud宣布成功上架了基于英偉達(dá)H200 GPU的DeepSeek系列模型。這一舉措標(biāo)志著DeepSeek在AI應(yīng)用領(lǐng)域邁出
    的頭像 發(fā)表于 02-08 09:41 ?507次閱讀

    英偉達(dá)推出基石世界模型Cosmos,解決智駕與機(jī)器人具身智能訓(xùn)練數(shù)據(jù)問題

    CES 2025展會(huì)上,英偉達(dá)推出了基石世界模型Cosmos,World Foundation Model基石世界模型,簡(jiǎn)稱WFM。 物理
    的頭像 發(fā)表于 01-14 11:04 ?1282次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達(dá)</b><b class='flag-5'>推出</b>基石世界<b class='flag-5'>模型</b>Cosmos,解決智駕與機(jī)器人具身智能訓(xùn)練數(shù)據(jù)問題

    英偉達(dá)發(fā)布Cosmos世界基礎(chǔ)模型

    近日,在2025年1月6日于拉斯維加斯拉開帷幕的國際消費(fèi)類電子產(chǎn)品展覽會(huì)(CES)上,英偉達(dá)宣布了一項(xiàng)重大創(chuàng)新——Cosmos世界基礎(chǔ)模型平臺(tái)。該平臺(tái)集成了先進(jìn)的生成世界基礎(chǔ)
    的頭像 發(fā)表于 01-09 10:23 ?710次閱讀

    NaVILA:加州大學(xué)與英偉達(dá)聯(lián)合發(fā)布新型視覺語言模型

    日前,加州大學(xué)的研究人員攜手英偉達(dá),共同推出了一款創(chuàng)新的視覺語言模型——NaVILA。該模型在機(jī)器人導(dǎo)航
    的頭像 發(fā)表于 12-13 10:51 ?684次閱讀

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型LLM)是一個(gè)復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專業(yè)知識(shí)。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標(biāo)和需求 : 確定你的
    的頭像 發(fā)表于 11-08 09:30 ?1515次閱讀

    LLM技術(shù)對(duì)人工智能發(fā)展的影響

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型LLM)技術(shù)已經(jīng)成為推動(dòng)AI領(lǐng)域進(jìn)步的關(guān)鍵力量。LLM技術(shù)通過深度學(xué)習(xí)和自然語言處理技術(shù),使得機(jī)器能夠理解和
    的頭像 發(fā)表于 11-08 09:28 ?1853次閱讀

    微軟攜手英偉達(dá)與GitHub推出生成式AI加速器

    近日,微軟宣布在英國推出一項(xiàng)重大合作項(xiàng)目——生成式人工智能加速器。這一項(xiàng)目由微軟、英偉達(dá)和GitHub三家科技巨頭強(qiáng)強(qiáng)聯(lián)手,旨在加速
    的頭像 發(fā)表于 11-05 14:58 ?826次閱讀

    英偉達(dá)與印度大企業(yè)聯(lián)手,共謀AI未來

    英偉達(dá)正積極與印度最大的企業(yè)——信實(shí)工業(yè)集團(tuán)和印孚瑟斯等建立合作關(guān)系,這一舉動(dòng)凸顯出印度在全球人工智能領(lǐng)域的重要地位,以及英偉達(dá)對(duì)這片人口眾
    的頭像 發(fā)表于 10-27 14:56 ?706次閱讀

    英偉達(dá)推出歸一化Transformer,革命性提升LLM訓(xùn)練速度

    英偉達(dá)團(tuán)隊(duì)近日在AI領(lǐng)域投下了一枚震撼彈,他們提出了一種全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)——?dú)w一化Transformer(nGPT)。這一創(chuàng)新架構(gòu)基于超球面(hypersphere)進(jìn)行表示學(xué)習(xí),為AI領(lǐng)域
    的頭像 發(fā)表于 10-23 11:30 ?876次閱讀

    亞馬遜云科技宣布Amazon EC2 P5e實(shí)例正式可用 由英偉達(dá)H200 GPU提供支持

    1.7倍,GPU內(nèi)存寬帶提升1.5倍。Amazon EC2 P5e非常適用于復(fù)雜的大型語言模型(LLM)和多模態(tài)基礎(chǔ)模型(FM)的訓(xùn)練、微調(diào)和推理,用于支持最苛刻和計(jì)算密集型的
    的頭像 發(fā)表于 09-19 16:16 ?884次閱讀

    英偉達(dá)推出Eagle系列模型

    英偉達(dá)最新推出的Eagle系列模型,以其1024×1024像素的高分辨率處理能力,重新定義了視覺信息處理的邊界。該
    的頭像 發(fā)表于 09-03 16:13 ?830次閱讀

    LLM模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)
    的頭像 發(fā)表于 07-24 11:38 ?1820次閱讀

    英偉達(dá)推出Flextron AI框架:賦能靈活高效的AI模型部署

    在人工智能與機(jī)器學(xué)習(xí)領(lǐng)域,隨著技術(shù)的不斷演進(jìn),模型的高效部署與適應(yīng)性成為研究的新熱點(diǎn)。近日,英偉達(dá)與德克薩斯大學(xué)奧斯汀分校攜手宣布了一項(xiàng)重大突破——
    的頭像 發(fā)表于 07-18 15:22 ?6687次閱讀