一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟發(fā)布視覺型AI新模型:Phi-3-vision

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-05-27 15:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

5 月 26 日消息,微軟近期推出其小語言 AI 模型新成員“Phi-3-vision”,以卓越的“視覺”處理能力著稱,能夠深度解析圖文信息并在移動設(shè)備上穩(wěn)定運(yùn)行。

據(jù)悉,Phi-3-vision 作為微軟 Phi-3 家族的首款多模態(tài)模型,繼承自 Phi-3-mini 的文本理解能力,兼具輕巧便攜特性,適用于移動平臺/嵌入式終端;模型參數(shù)規(guī)模達(dá) 42 億,遠(yuǎn)超 Phi-3-mini(3.8B),略遜于 Phi-3-small(7B),上下文長度為 128k token,訓(xùn)練時間跨度為 2024 年 2 月至 4 月。

值得關(guān)注的是,Phi-3-vision 模型的核心優(yōu)勢在于其強(qiáng)大的“圖文識別”功能,能夠準(zhǔn)確理解現(xiàn)實(shí)世界圖像的內(nèi)涵,迅速識別并提取圖片中的文字信息。

微軟強(qiáng)調(diào),Phi-3-vision 尤其適用于辦公場景,開發(fā)者針對圖表和方塊圖(Block diagram)識別進(jìn)行了專門優(yōu)化,使其能夠根據(jù)用戶輸入信息進(jìn)行推理,并生成一系列決策建議,為企業(yè)提供戰(zhàn)略參考,被譽(yù)為“媲美大型模型”的效果。

在模型訓(xùn)練環(huán)節(jié),微軟表示 Phi-3-vision 采用了“多元化圖片與文字?jǐn)?shù)據(jù)”進(jìn)行訓(xùn)練,涵蓋了一系列“精選的公共內(nèi)容”,如“教科書級”教育素材、代碼、圖文標(biāo)注數(shù)據(jù)、現(xiàn)實(shí)世界知識、圖表圖片、聊天記錄等,以保證模型輸入內(nèi)容的豐富性。此外,微軟承諾所用訓(xùn)練數(shù)據(jù)“可追溯”且不含任何個人信息,充分保障用戶隱私。

在性能對比方面,微軟提供了 Phi-3-vision 與字節(jié)跳動 Llama3-Llava-Next(8B)、微軟研究院與威斯康星大學(xué)、哥倫比亞大學(xué)聯(lián)合研發(fā)的 LlaVA-1.6(7B)以及阿里巴巴通義千問 QWEN-VL-Chat 模型等競品的對比圖表,展示了 Phi-3-vision 在多項(xiàng)測試中的優(yōu)秀表現(xiàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6686

    瀏覽量

    105760
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35164

    瀏覽量

    279884
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50423
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    日本航空攜手微軟率先將AI應(yīng)用引入客艙管理

    日本航空(JAL)攜手微軟,率先將AI應(yīng)用引I入客艙管理。通過基于微軟Phi-4小型語言模型(SLM)開發(fā)的JAL-
    的頭像 發(fā)表于 07-18 11:12 ?175次閱讀

    Banana Pi 發(fā)布 BPI-AI2N & BPI-AI2N Carrier,助力 AI 計算與嵌入式開發(fā)

    []() 2025年3月19日——Banana Pi 今日正式發(fā)布 BPI-AI2N & BPI-AI2N Carrier,基于瑞薩電子(Renesas)同步
    發(fā)表于 03-19 17:54

    IBM發(fā)布全新Granite 3.2 AI模型

    Granite 3.2 是小型的 AI 模型,通過對開發(fā)人員友好的授權(quán)條款,提供推理、視覺和護(hù)欄功能。
    的頭像 發(fā)表于 03-06 16:47 ?571次閱讀

    字節(jié)跳動發(fā)布豆包大模型1.5 Pro

    3.5 Sonnet等模型。 該模型采用大規(guī)模稀疏MoE架構(gòu),使用較小的激活參數(shù)進(jìn)行預(yù)訓(xùn)練,卻能等效7倍激活參數(shù)的Dense模型性能,遠(yuǎn)超業(yè)內(nèi)MoE架構(gòu)約3倍杠桿的常規(guī)效率。 同時
    的頭像 發(fā)表于 01-23 10:24 ?648次閱讀

    在算力魔方上本地部署Phi-4模型

    智能水平上的一大飛躍。它不僅達(dá)到了之前只有Llama 3.1 405B模型才具備的智能水平,而且還超越了11月發(fā)布的GPT-4o模型。 本文我們將分享微軟剛剛
    的頭像 發(fā)表于 01-15 11:05 ?503次閱讀
    在算力魔方上本地部署<b class='flag-5'>Phi</b>-4<b class='flag-5'>模型</b>

    三星發(fā)布Vision AI,打造個性化AI屏幕體驗(yàn)

    近日,在2025年國際消費(fèi)電子展(CES 2025)“First Look”活動上,三星震撼發(fā)布了其最新的科技成果——三星Vision AI。這一創(chuàng)新技術(shù)旨在通過個性化的AI屏幕體驗(yàn),
    的頭像 發(fā)表于 01-14 14:58 ?785次閱讀

    三星發(fā)布Vision AI等多項(xiàng)創(chuàng)新

    近日,三星在美國舉辦的2025 年國際消費(fèi)電子展(CES 2025)“First Look”活動上,發(fā)布了三星Vision AI,旨在為用戶的日常生活帶來個性化的 AI屏幕體驗(yàn)。
    的頭像 發(fā)表于 01-14 11:47 ?725次閱讀

    虹軟AI視覺賦能雷鳥V3 AI拍攝眼鏡發(fā)布

    近日,雷鳥創(chuàng)新正式發(fā)布全新一代AI拍攝眼鏡——雷鳥V3。該產(chǎn)品搭載多項(xiàng)創(chuàng)新技術(shù),包括融合虹軟AI視覺算法的獵鷹影像系統(tǒng)、通義獨(dú)家定制大
    的頭像 發(fā)表于 01-08 10:58 ?1144次閱讀

    三星發(fā)布Vision AI及Neo QLED旗艦電視

    近日,三星電子在1月6日正式對外發(fā)布了其備受矚目的Samsung Vision AI技術(shù)。這一創(chuàng)新技術(shù)旨在為用戶提供由先進(jìn)人工智能驅(qū)動的個人屏幕體驗(yàn),開啟了智能家居與個性化交互的新篇章
    的頭像 發(fā)表于 01-07 10:36 ?798次閱讀

    LabVIEW使用Vision視覺進(jìn)行硬幣分類計數(shù)

    LabVIEW使用Vision視覺進(jìn)行硬幣分類計數(shù),有償,帶價加q:3430396759
    發(fā)表于 12-29 20:20

    微軟尋求在365 Copilot中引入非OpenAI模型

    擔(dān)心企業(yè)用戶在使用365 Copilot時面臨的成本和速度問題,因此正在尋求更多樣化的技術(shù)來源。盡管微軟與OpenAI之間有著緊密的合作關(guān)系,并允許微軟定制OpenAI的模型,但微軟
    的頭像 發(fā)表于 12-25 10:41 ?610次閱讀

    微軟預(yù)覽版Copilot Vision AI功能上線

    微軟公司近日宣布,將面向美國地區(qū)的Copilot Pro用戶推出預(yù)覽版的Copilot Vision AI功能。這一創(chuàng)新功能旨在通過人工智能技術(shù),進(jìn)一步提升用戶的網(wǎng)頁瀏覽體驗(yàn)。 Copilot
    的頭像 發(fā)表于 12-09 14:38 ?642次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama的安裝。 一,Llama3.2 Vision簡介 Llama 3.2 Vision是一個多模態(tài)大型語言模型(LLMs)的集合,它包括預(yù)訓(xùn)練和指令調(diào)整的圖像推理生成模型,有兩
    的頭像 發(fā)表于 11-23 17:22 ?3765次閱讀
    用Ollama輕松搞定Llama 3.2 <b class='flag-5'>Vision</b><b class='flag-5'>模型</b>本地部署

    微軟發(fā)布Azure AI Foundry,推動云服務(wù)增長

    。 Azure AI Foundry為用戶提供了一個更為便捷的平臺,使得在支持人工智能的大型語言模型之間切換變得輕松自如。這一創(chuàng)新工具的發(fā)布,無疑將極大地降低AI應(yīng)用的開發(fā)門檻,進(jìn)一步
    的頭像 發(fā)表于 11-21 11:32 ?882次閱讀

    在英特爾酷睿Ultra7處理器上優(yōu)化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI模型,包含三個版本:mini(3.8B參數(shù))、small(7B參數(shù))以及medium(14B參數(shù))。
    的頭像 發(fā)表于 08-30 16:58 ?1374次閱讀
    在英特爾酷睿Ultra7處理器上優(yōu)化和部署<b class='flag-5'>Phi-3</b>-min<b class='flag-5'>模型</b>