一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Mistral AI發(fā)布1760億參數(shù)開源模型Mixtral 8x22B,兼容Torrent

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-04-11 14:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

據(jù)了解,Mistral AI于近期發(fā)布了名為Mixtral 8x22B的開源模型,該模型擁有1760億個參數(shù), Context長度高達6.5萬token,可通過Torrent下載獲取。

作為一家備受矚目的新興AI企業(yè),Mistral AI因其“6人團隊,7頁PPT,8億融資”的傳奇故事而聲名遠揚。尤其值得一提的是,該公司曾獲得微軟投資,使之順利駛入高速發(fā)展軌道。

今日,Mistral AI正式發(fā)布了Mixtral 8x22B模型,并提供了Torrent種子鏈接供用戶下載。該模型文件大小達到了驚人的281GB,用戶既可通過磁力鏈接直接下載,也可選擇Hugging Face和Perplexity AI Labs等平臺進行下載。

盡管Mixtral 8x22B模型擁有龐大的1760億個參數(shù)以及6.5萬個token的Context長度,但為了提高使用靈活性,該模型還支持僅調用部分模型(440億參數(shù))來完成特定任務。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    35164

    瀏覽量

    280076
  • 開源
    +關注

    關注

    3

    文章

    3690

    瀏覽量

    43840
  • 模型
    +關注

    關注

    1

    文章

    3521

    瀏覽量

    50440
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    華為宣布開源盤古7B稠密和72B混合專家模型

    電子發(fā)燒友網綜合報道 2025年6月30日,華為正式宣布開源盤古70參數(shù)的稠密模型、盤古Pro MoE 720
    的頭像 發(fā)表于 07-06 05:51 ?6151次閱讀

    華為正式開源盤古7B稠密和72B混合專家模型

    [中國,深圳,2025年6月30日] 今日,華為正式宣布開源盤古70參數(shù)的稠密模型、盤古Pro MoE 720
    的頭像 發(fā)表于 06-30 11:19 ?487次閱讀

    華為助力中國石油發(fā)布3000參數(shù)昆侖大模型

    5月28日,中國石油發(fā)布3000參數(shù)昆侖大模型,標志著中國石油在人工智能領域又邁出關鍵一步,全力推動“人工智能+”行動走深走實。 ? 中國石油發(fā)布
    的頭像 發(fā)表于 05-29 09:19 ?528次閱讀
    華為助力中國石油<b class='flag-5'>發(fā)布</b>3000<b class='flag-5'>億</b><b class='flag-5'>參數(shù)</b>昆侖大<b class='flag-5'>模型</b>

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家
    的頭像 發(fā)表于 05-08 11:45 ?1276次閱讀
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳實踐

    首創(chuàng)開源架構,天璣AI開發(fā)套件讓端側AI模型接入得心應手

    模型庫的限制,聯(lián)發(fā)科還首發(fā)了開源彈性架構。區(qū)別于過往的開放接口,只能部署特定架構模型,開放彈性架構允許開發(fā)者直接調整平臺源代碼,無需等待芯片廠商的支持,即可完成目標或其他自研大模型輕松
    發(fā)表于 04-13 19:52

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計算與嵌入式開發(fā)

    高效連接 BPI-AI2N 標配 8GB LPDDR4X 內存、32GB eMMC 存儲及 64MB QSPI Flash,確保數(shù)據(jù)存取高效穩(wěn)定。同時,BPI-AI2N Carrier
    發(fā)表于 03-19 17:54

    法國AI初創(chuàng)企業(yè)Mistral AI計劃IPO

    法國AI領域的初創(chuàng)企業(yè)Mistral AI近日宣布了其未來的發(fā)展藍圖。公司創(chuàng)始人兼首席執(zhí)行官Arthur Mensch明確表示,Mistral AI
    的頭像 發(fā)表于 01-24 13:58 ?573次閱讀

    Meta重磅發(fā)布Llama 3.3 70B開源AI模型的新里程碑

    新的高度。 一,技術突破:開源智能的新高度 Llama 3.3 70B 模型發(fā)布,標志著開源AI
    的頭像 發(fā)表于 12-18 16:46 ?586次閱讀
    Meta重磅<b class='flag-5'>發(fā)布</b>Llama 3.3 70<b class='flag-5'>B</b>:<b class='flag-5'>開源</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>的新里程碑

    開源AI模型庫是干嘛的

    開源AI模型庫是指那些公開源代碼、允許自由訪問和使用的AI模型集合。這些
    的頭像 發(fā)表于 12-14 10:33 ?793次閱讀

    獵戶星空發(fā)布Orion-MoE 8×7B模型AI數(shù)據(jù)寶AirDS

    。 Orion-MoE 8×7B是獵戶星空精心打造的開源混合架構專家大模型,該模型擁有高達8×7
    的頭像 發(fā)表于 11-29 13:57 ?675次閱讀

    AMD發(fā)布10參數(shù)開源AI模型OLMo

    AMD公司近日宣布了一項重大進展,推出了首個完全開放的10參數(shù)語言模型系列——AMD OLMo。這一舉措為開發(fā)者和研究人員提供了強大的AI研究工具,有助于推動
    的頭像 發(fā)表于 11-12 18:08 ?789次閱讀

    蘋果發(fā)布300參數(shù)多模態(tài)AI模型MM1.5

    蘋果近日推出了全新的多模態(tài)AI模型MM1.5,該模型擁有高達300參數(shù)規(guī)模,是在前代MM1架構的基礎上進一步發(fā)展而來的。
    的頭像 發(fā)表于 10-14 15:50 ?628次閱讀

    英偉達震撼發(fā)布:全新AI模型參數(shù)規(guī)模躍升至80量級

    8月23日,英偉達宣布,其全新AI模型面世,該模型參數(shù)規(guī)模高達80,具有精度高、計算效益大等優(yōu)
    的頭像 發(fā)表于 08-23 16:08 ?1108次閱讀

    Mistral AI與NVIDIA推出全新語言模型Mistral NeMo 12B

    Mistral AI 和 NVIDIA 于近日共同發(fā)布了一款全新的領先語言模型Mistral NeMo 12
    的頭像 發(fā)表于 07-27 11:04 ?1164次閱讀

    Mistral Large 2現(xiàn)已在Amazon Bedrock中正式可用

    北京2024年7月25日 /美通社/ -- 亞馬遜云科技宣布,Mistral AIMistral Large 2(24.07)基礎模型(FM)現(xiàn)已在Amazon Bedrock中正式
    的頭像 發(fā)表于 07-26 08:07 ?518次閱讀