一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟發(fā)布PhI-3-Vision模型,提升視覺AI效率

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-05-28 11:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

5 月 28 日,微軟在 Build 2024 大會上推出了最新的 Phi-3 系列成員——Phi-3-vision。這一工具主打視覺應(yīng)用,能有效處理圖片文字信息,且在移動設(shè)備上也能運(yùn)行自如。

Phi-3-vision 是一種小型多模式語言模型(SLM),主要適用于本地人工智能場景。其模型參數(shù)高達(dá) 42 億,上下文序列包含 128k 個符號,可滿足各種視覺推理和其他任務(wù)需求。

Microsoft 通過一篇新發(fā)表的論文[PDF]展示了 Phi-3-vision 的強(qiáng)大實(shí)力。與其他模型如 Claude 3-haiku、Gemini 1.0 Pro 相比,Phi-3-vision 毫不遜色。

此外,Microsoft 還對 Phi-3-vision 進(jìn)行了多項(xiàng)測試,并將其與其他競品模型進(jìn)行了比較,包括字節(jié)跳動的 Llama3-Llava-Next(8B)、微軟研究院與威斯康星大學(xué)、哥倫比亞大學(xué)聯(lián)合開發(fā)的 LlaVA-1.6(7B)以及阿里巴巴通義千問 QWEN-VL-Chat 模型等。結(jié)果表明,Phi-3-vision 在多個項(xiàng)目中的表現(xiàn)均十分出色。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6686

    瀏覽量

    105794
  • 人工智能
    +關(guān)注

    關(guān)注

    1807

    文章

    49035

    瀏覽量

    249775
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10802
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    日本航空攜手微軟率先將AI應(yīng)用引入客艙管理

    日本航空(JAL)攜手微軟,率先將AI應(yīng)用引I入客艙管理。通過基于微軟Phi-4小型語言模型(SLM)開發(fā)的JAL-
    的頭像 發(fā)表于 07-18 11:12 ?259次閱讀

    DevEco Studio AI輔助開發(fā)工具兩大升級功能 鴻蒙應(yīng)用開發(fā)效率提升

    帶來了前所未有的智能問答體驗(yàn)。 RAG增強(qiáng)型與傳統(tǒng)生成式AI的關(guān)鍵差異: 圖2:DeepSeek模型增強(qiáng)RAG能力前后效果對比圖 升級點(diǎn)2:新增代碼解釋功能,提升初學(xué)者開發(fā)效率 針對
    發(fā)表于 04-18 14:43

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    的端側(cè)部署,Token產(chǎn)生速度提升了40%,讓端側(cè)大模型擁有更高的計(jì)算效率和推理性能,使端側(cè)AI交互響應(yīng)更及時(shí),用戶體驗(yàn)更貼心。 聯(lián)發(fā)科還與vivo和全民K歌攜手,借助天璣
    發(fā)表于 04-13 19:52

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    AI 處理效率,成為部署各類 AI 模型的關(guān)鍵依托。 憑借這些卓越的硬件性能,RK3588 開發(fā)板在保持低功耗的同時(shí),展現(xiàn)出強(qiáng)大的運(yùn)算能力,無疑是部署 DeepSeek
    發(fā)表于 02-14 17:42

    字節(jié)跳動發(fā)布豆包大模型1.5 Pro

    3.5 Sonnet等模型。 該模型采用大規(guī)模稀疏MoE架構(gòu),使用較小的激活參數(shù)進(jìn)行預(yù)訓(xùn)練,卻能等效7倍激活參數(shù)的Dense模型性能,遠(yuǎn)超業(yè)內(nèi)MoE架構(gòu)約3倍杠桿的常規(guī)
    的頭像 發(fā)表于 01-23 10:24 ?663次閱讀

    在算力魔方上本地部署Phi-4模型

    智能水平上的一大飛躍。它不僅達(dá)到了之前只有Llama 3.1 405B模型才具備的智能水平,而且還超越了11月發(fā)布的GPT-4o模型。 本文我們將分享微軟剛剛
    的頭像 發(fā)表于 01-15 11:05 ?509次閱讀
    在算力魔方上本地部署<b class='flag-5'>Phi</b>-4<b class='flag-5'>模型</b>

    虹軟AI視覺賦能雷鳥V3 AI拍攝眼鏡發(fā)布

    近日,雷鳥創(chuàng)新正式發(fā)布全新一代AI拍攝眼鏡——雷鳥V3。該產(chǎn)品搭載多項(xiàng)創(chuàng)新技術(shù),包括融合虹軟AI視覺算法的獵鷹影像系統(tǒng)、通義獨(dú)家定制大
    的頭像 發(fā)表于 01-08 10:58 ?1181次閱讀

    三星發(fā)布Vision AI及Neo QLED旗艦電視

    近日,三星電子在1月6日正式對外發(fā)布了其備受矚目的Samsung Vision AI技術(shù)。這一創(chuàng)新技術(shù)旨在為用戶提供由先進(jìn)人工智能驅(qū)動的個人屏幕體驗(yàn),開啟了智能家居與個性化交互的新篇章
    的頭像 發(fā)表于 01-07 10:36 ?818次閱讀

    微軟尋求在365 Copilot中引入非OpenAI模型

    擔(dān)心企業(yè)用戶在使用365 Copilot時(shí)面臨的成本和速度問題,因此正在尋求更多樣化的技術(shù)來源。盡管微軟與OpenAI之間有著緊密的合作關(guān)系,并允許微軟定制OpenAI的模型,但微軟
    的頭像 發(fā)表于 12-25 10:41 ?622次閱讀

    Meta發(fā)布AI模型Meta Motivo,旨在提升元宇宙體驗(yàn)

    Meta公司近日宣布,將推出一款名為Meta Motivo的全新人工智能模型。該模型具備控制類似人類的數(shù)字代理動作的能力,有望為元宇宙的用戶體驗(yàn)帶來顯著提升。 Meta Motivo的發(fā)布
    的頭像 發(fā)表于 12-16 10:34 ?999次閱讀

    微軟預(yù)覽版Copilot Vision AI功能上線

    微軟公司近日宣布,將面向美國地區(qū)的Copilot Pro用戶推出預(yù)覽版的Copilot Vision AI功能。這一創(chuàng)新功能旨在通過人工智能技術(shù),進(jìn)一步提升用戶的網(wǎng)頁瀏覽體驗(yàn)。 Cop
    的頭像 發(fā)表于 12-09 14:38 ?654次閱讀

    AI干貨補(bǔ)給站04 | 工業(yè)AI視覺檢測項(xiàng)目實(shí)施第三步:模型構(gòu)建

    在當(dāng)今智能制造的浪潮中,AI視覺檢測技術(shù)憑借其高效、精準(zhǔn)的特性,已然成為提升產(chǎn)品質(zhì)量和生產(chǎn)效率的重要工具。為了助力從業(yè)者更好地理解和實(shí)施AI
    的頭像 發(fā)表于 11-29 01:04 ?675次閱讀
    <b class='flag-5'>AI</b>干貨補(bǔ)給站04 | 工業(yè)<b class='flag-5'>AI</b><b class='flag-5'>視覺</b>檢測項(xiàng)目實(shí)施第三步:<b class='flag-5'>模型</b>構(gòu)建

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama的安裝。 一,Llama3.2 Vision簡介 Llama 3.2 Vision是一個多模態(tài)大型語言模型(LLMs)的集合,它包括預(yù)訓(xùn)練和指令調(diào)整的圖像推理生成模型,有兩
    的頭像 發(fā)表于 11-23 17:22 ?3782次閱讀
    用Ollama輕松搞定Llama 3.2 <b class='flag-5'>Vision</b><b class='flag-5'>模型</b>本地部署

    微軟發(fā)布Azure AI Foundry,推動云服務(wù)增長

    。 Azure AI Foundry為用戶提供了一個更為便捷的平臺,使得在支持人工智能的大型語言模型之間切換變得輕松自如。這一創(chuàng)新工具的發(fā)布,無疑將極大地降低AI應(yīng)用的開發(fā)門檻,進(jìn)一步
    的頭像 發(fā)表于 11-21 11:32 ?893次閱讀

    在英特爾酷睿Ultra7處理器上優(yōu)化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI模型,包含三個版本:mini(3.8B參數(shù))、small(7B參數(shù))以及medium(14B參數(shù))。
    的頭像 發(fā)表于 08-30 16:58 ?1385次閱讀
    在英特爾酷睿Ultra7處理器上優(yōu)化和部署<b class='flag-5'>Phi-3</b>-min<b class='flag-5'>模型</b>