一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

新火種AI|GPT-5前瞻!GPT-5將具備哪些新能力?

新火種 ? 來源:新火種 ? 作者:新火種 ? 2024-01-16 21:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:小巖

編輯:彩云

Sam Altman在整個(gè)AI領(lǐng)域,乃至整個(gè)科技領(lǐng)域都被看作是極具影響力的存在,而2023年OpenAI無限反轉(zhuǎn)的宮斗事件更是讓Sam Altman刷足了存在感,他甚至被《時(shí)代》雜志評為“2023年度CEO”。

也正因此, Sam Altman的一條推文,瞬間就可以成為轟動(dòng)整個(gè)AI行業(yè)的信號,特別是當(dāng)這條推文還與萬眾期待的“GPT-5”有關(guān)的時(shí)候。

wKgZomWmfnGANHA7AAO4nPOGZYA830.jpg

2023年平安夜,Sam Altman在社交平臺大膽公布了2024年的雄心壯志。他所發(fā)表的關(guān)鍵詞不僅涵蓋了2024年OpenAI的整體規(guī)劃,更契合了用戶的迫切需求。這其中包括:

AGI(請耐心等待)

GPT-5

更好的語音模式

更高的費(fèi)率限制

更好的GPT

更好的推理

對工作/行為程度的控制

視頻

個(gè)性化

更好的瀏覽

“使用OpenAi登錄”

開放源代碼

Sam Altman透露,OpenAI計(jì)劃在接下來的一年內(nèi)實(shí)現(xiàn)多個(gè)令人矚目的里程碑。其中所涉及到的內(nèi)容,不僅僅一次簡單的技術(shù)更新,更是一場至關(guān)重要的AI變革。當(dāng)然,最受關(guān)注的,還是GPT-5。

wKgaomWmfnGAdJutAAURv8P-WdQ839.jpg

AI領(lǐng)域的開源與閉源之爭:類似于AndroidIOS之爭。

對于AI界來說,大家除了關(guān)心 GPT-5能否在技術(shù)壁壘上有所突破,更關(guān)心一個(gè)重點(diǎn):GPT-5能否實(shí)現(xiàn)開源?

大模型的開源和閉源之爭一直是行業(yè)內(nèi)爭論的焦點(diǎn),這種爭論,與移動(dòng)互聯(lián)網(wǎng)時(shí)代的Android與IOS之爭有異曲同工之妙。有意思的是,各個(gè)AI大廠對于開源還是閉源的選擇也不盡相同。

目前拔得頭籌的OpenAI的GPT-4和百度的文心一言都堅(jiān)持閉源,Meta選擇了開源的道路,相繼面向“學(xué)術(shù)研究用途”開源了LLaMA和LLaMA-2模型。百川智能則兼具開源和閉源,在學(xué)術(shù)領(lǐng)域選擇了開源,使用7B和13B兩種尺寸的大模型;商業(yè)探索上將53B閉源,以保護(hù)商業(yè)利益和技術(shù)的競爭優(yōu)勢。

wKgZomWmfnKAYrgqAAjq9QaR8EQ770.jpg

GPT的閉源,為OpenAI帶來了可觀的收入。據(jù)The Information報(bào)道,OpenAI CEO Sam Altman對員工表示,公司正以每年13億美元(約合人民幣94.93億元)的速度產(chǎn)生收入,平均每月收入超過1億美元,相較于去年全年2800萬美元增長超過450倍,達(dá)4542%。這個(gè)數(shù)據(jù)也比3個(gè)月前預(yù)期的年收入高30 %。這也讓2023年成為OpenAI公司成立8年來,收入增長最快的一年。而這些,恰恰是GPT-4閉源所帶來的。

關(guān)鍵詞:GPT-5能實(shí)現(xiàn)開源嗎?

那么,GPT-5能實(shí)現(xiàn)開源嗎?未必。

對于商業(yè)模式,OpenAI曾在官網(wǎng)中明確指出“打算繼續(xù)免費(fèi)提供ChatGPT”,但也會(huì)選擇從付費(fèi)的高級服務(wù)的用戶和企業(yè)中獲得收入。而且,雖然OpenAI嘴上說著“不指望在近期內(nèi)盈利”,但考慮到開發(fā)和提供大模型的高成本,生存問題仍然是其不得不面對的挑戰(zhàn)。

此外,盡管OpenAI實(shí)現(xiàn)了快速增長,但背后的行業(yè)成本卻不容忽略。根據(jù)公開信息顯示,2022 年,OpenAI開發(fā)GPT-4,僅訓(xùn)練成本支出約5.4億美元。2023年4月,OpenAI每天為ChatGPT支付的運(yùn)營成本約694.4萬美元(其中主要是電費(fèi)) ,年化運(yùn)營成本約為2.5億美元,綜合年化成本可能超過13億美元。毫無疑問,OpenAI依舊處于虧損階段。

所以,倘若沒有商業(yè)化的維持,OpenAI恐怕很快會(huì)迎來破產(chǎn)。更重要的是,已經(jīng)通過GPT-4閉源嘗到甜頭,獲得大量收入的OpenAI,顯然沒有充足的理由將GPT-5完全開源,這無異于自毀壁壘,在大模型賽道的競逐中喪失領(lǐng)先優(yōu)勢。從這個(gè)層面來說。GPT-5實(shí)現(xiàn)開源的概率不大。

即便Sam Altman在推文中將“開源”標(biāo)注成了關(guān)鍵詞,但更多的也只是在迎合行業(yè)的呼聲,我們還不能將其解讀為“企業(yè)2024年的發(fā)展目標(biāo)”。

不過,“部分開源”的可能性并非沒有。GPT-5完全開源的可能性雖然比較小,但是為了GPT相關(guān)生態(tài)建設(shè),對與GPT相關(guān)的工具集提供開源的可能性卻很高?;蛟S,OpenAI會(huì)通過為較少部分提供開源的方式,為開發(fā)者的開發(fā),調(diào)試,分享提供便利。

未來的GPT-5,究竟會(huì)具備哪些新能力?

近日,艾倫人工智能研究所發(fā)布了Unified-IO 2,它的發(fā)布極具意義,因?yàn)樗梢詭椭覀兏玫念A(yù)判GPT-5的能力。

為什么這么說呢?Unified與ChatGPT之間存在著怎樣的關(guān)系?

事實(shí)上,早在2022年6月,艾倫人工智能研究所就推出了第一代Unified-IO,它是首批能夠處理圖像和語言的多模態(tài)模型之一。大約在同一時(shí)間,OpenAI正在內(nèi)部測試GPT-4,并在2023年3月正式發(fā)布。所以,Unified-IO可以看作是對于未來大規(guī)模AI模型的前瞻。換句話說,因?yàn)閁nified-IO 2的出現(xiàn),我們可以大致預(yù)判一點(diǎn):OpenAI可能正在內(nèi)部測試GPT-5,并很有可能在幾個(gè)月后發(fā)布。

wKgaomWmfnKAA1qsAAxSX32zbmo262.jpg

艾倫人工智能研究所推出的Unified-IO 2是第一個(gè)可以處理和生成文本,圖像,音頻,視頻和動(dòng)作序列的模型。這個(gè)新的高級人工智能模型使用幾十億個(gè)數(shù)據(jù)點(diǎn)進(jìn)行訓(xùn)練,雖然模型大小只有7B,卻展現(xiàn)出迄今為止最廣泛的多模態(tài)能力。它的訓(xùn)練數(shù)據(jù)包括:10億個(gè)圖像-文本對,1 萬億個(gè)文本標(biāo)記,1.8億個(gè)視頻剪輯,1.3億張帶文本的圖像,300萬個(gè)3D資產(chǎn)和100萬個(gè)機(jī)器人代理運(yùn)動(dòng)序列。研究團(tuán)隊(duì)將總共120多個(gè)數(shù)據(jù)集組合成一個(gè)600 TB的包,涵蓋220個(gè)視覺,語言,聽覺和動(dòng)作任務(wù)。Unified-IO 2采用編碼器-解碼器架構(gòu),并進(jìn)行了一些更改,以穩(wěn)定訓(xùn)練并有效利用多模態(tài)信號。

模型可以回答問題,根據(jù)指令撰寫文本、以及分析文本內(nèi)容;可以識別圖像內(nèi)容,提供圖像描述,執(zhí)行圖像處理任務(wù),并根據(jù)文本描述創(chuàng)建新圖像;可以根據(jù)描述或說明生成音樂或聲音,以及分析視頻并回答有關(guān)視頻的問題。此外,通過使用機(jī)器人數(shù)據(jù)進(jìn)行訓(xùn)練,Unified-IO 2還可以為機(jī)器人系統(tǒng)生成動(dòng)作,例如將指令轉(zhuǎn)換為機(jī)器人的動(dòng)作序列。由于多模態(tài)訓(xùn)練,它還可以處理不同的模態(tài),例如,在圖像上標(biāo)記某個(gè)音軌使用的樂器等。

總體而言,Unified-IO 2在超過35個(gè)基準(zhǔn)測試中表現(xiàn)良好,包括圖像生成和理解,自然語言理解,視頻和音頻理解以及機(jī)器人操作。在大多數(shù)任務(wù)中,它能夠比肩專用模型,甚至更勝一籌。在圖像任務(wù)的GRIT基準(zhǔn)測試中,Unified-IO 2獲得了目前的最高分。通過這些,我們也可以更好的窺見未來GPT-5的模樣。

對于AI發(fā)展而言,科技生態(tài)與商業(yè)化是缺一不可的核心要素。技術(shù)和應(yīng)用的發(fā)展需要商業(yè)化提供必要的支持和保障;而商業(yè)化的成功也離不開生態(tài)環(huán)境的建設(shè)。兩者之間必須相輔相成,有機(jī)結(jié)合。希望在未來發(fā)布的GPT-5中,OpenAI可以起到先導(dǎo)作用,率先實(shí)現(xiàn)生態(tài)與商業(yè)化之間的平衡。



審核編輯 黃宇


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35041

    瀏覽量

    279112
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16070
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    GPT-5即將面市 性能遠(yuǎn)超GPT-4

    行業(yè)芯事
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年06月04日 13:38:23

    OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖

    OpenAI的首席執(zhí)行官薩姆·奧特曼(Sam Altman)近期為公司的GPT-4.5和GPT-5大模型開發(fā)制定了一項(xiàng)重要的路線圖,旨在極大地簡化和優(yōu)化用戶及開發(fā)人員在選擇AI模型時(shí)的體驗(yàn)。 在當(dāng)
    的頭像 發(fā)表于 02-18 09:12 ?494次閱讀

    OpenAI宣布GPT 4o升智計(jì)劃

    透露,GPT 4o的智力水平將得到顯著提升,目標(biāo)直指o3 pro的水平。這一升級不僅意味著GPT 4o在理解和生成文本方面的能力將得到質(zhì)的飛躍,更將使其在處理復(fù)雜問題、進(jìn)行邏輯推理等方面的表現(xiàn)更加出色。 Sam Altman還強(qiáng)
    的頭像 發(fā)表于 02-17 14:24 ?586次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    近日,OpenAI的首席執(zhí)行官Sam Altman在社交平臺上透露了公司即將推出的重大計(jì)劃。據(jù)他透露,OpenAI計(jì)劃在不久的將來連續(xù)發(fā)布兩款重要的AI算法——GPT-4.5和GPT-5。 據(jù)悉
    的頭像 發(fā)表于 02-13 13:43 ?641次閱讀

    今日看點(diǎn)丨OpenAI發(fā)布新的GPT-4.5模型;三星西安工廠升級286層NAND閃存工藝

    ,OpenAI將在未來幾個(gè)月內(nèi)推出名為GPT-5的模型,該模型整合OpenAI的大量技術(shù),包括o3,并應(yīng)用于聊天機(jī)器人C
    發(fā)表于 02-13 11:22 ?543次閱讀

    OpenAI即將推出GPT-5模型

    OpenAI首席執(zhí)行官奧爾特曼近日宣布了一項(xiàng)重要消息:OpenAI將在今年未來幾個(gè)月內(nèi)推出全新的GPT-5模型。這一消息引起了業(yè)界的廣泛關(guān)注和期待。 據(jù)了解,GPT-5模型整合OpenAI的大量
    的頭像 發(fā)表于 02-13 11:21 ?584次閱讀

    OpenAI CEO預(yù)告GPT-4.5及GPT-5未來規(guī)劃

    全新的GPT-5模型。這一模型整合包括o3在內(nèi)的多項(xiàng)OpenAI先進(jìn)技術(shù),旨在為用戶帶來更加智能、高效的使用體驗(yàn)。值得注意的是,免費(fèi)版的ChatGPT也將在標(biāo)準(zhǔn)智能設(shè)置下無限制地使用GPT-5進(jìn)行對話,這無疑
    的頭像 發(fā)表于 02-13 10:02 ?427次閱讀

    如何在邊緣端獲得GPT4-V的能力:算力魔方+MiniCPM-V 2.6

    作者:算力魔方創(chuàng)始人/英特爾邊緣計(jì)算創(chuàng)新大使 劉力 前面我們分享了《在算力魔方上本地部署Phi-4模型》,實(shí)現(xiàn)了在邊緣端獲得Llama 3.3 70B模型差不多的能力。本文分享,在邊緣端獲得類似
    的頭像 發(fā)表于 01-20 13:40 ?620次閱讀
    如何在邊緣端獲得<b class='flag-5'>GPT</b>4-V的<b class='flag-5'>能力</b>:算力魔方+MiniCPM-V 2.6

    GPT-5研發(fā)進(jìn)度滯后,成果與成本不匹配

    近日,OpenAI正在緊鑼密鼓地研發(fā)的下一代大型語言模型GPT-5,其研發(fā)進(jìn)度已落后于原計(jì)劃。這一消息引起了業(yè)界的廣泛關(guān)注。 報(bào)道指出,盡管OpenAI在GPT-5的研發(fā)上投入了大量的人力、物力
    的頭像 發(fā)表于 12-23 14:16 ?504次閱讀

    OpenAI GPT-5開發(fā)滯后:訓(xùn)練成本高昂

    近日,據(jù)最新消息,OpenAI在推進(jìn)其備受期待的下一代旗艦?zāi)P?b class='flag-5'>GPT-5的開發(fā)進(jìn)程上遇到了困難。由于計(jì)算成本高昂且高質(zhì)量訓(xùn)練數(shù)據(jù)稀缺,GPT-5的開發(fā)已經(jīng)落后于原定計(jì)劃半年之久。 據(jù)悉,OpenAI
    的頭像 發(fā)表于 12-23 11:04 ?724次閱讀

    OpenAI推遲GPT-5發(fā)布,專注草莓計(jì)劃GPT-o1及AI代理愿景

    形成了有力競爭。然而,近日OpenAI的首席執(zhí)行官Sam Altman卻透露了一個(gè)出人意料的消息:盡管公司計(jì)劃在年底前推出多項(xiàng)重要更新,但備受期待的GPT-5并不會(huì)在今年面世。
    的頭像 發(fā)表于 11-05 16:57 ?867次閱讀

    科大訊飛發(fā)布訊飛星火4.0 Turbo:七大能力GPT-4 Turbo

    超過GPT-4 Turbo,數(shù)學(xué)能力和代碼能力更是超過了Open AI最新一代GPT模型GPT-
    的頭像 發(fā)表于 10-24 11:39 ?1058次閱讀

    OpenAI宣布啟動(dòng)GPT Next計(jì)劃

     9月4日最新資訊,OpenAI Japan 在KDDI峰會(huì)上亮相,揭開了其即將問世的下一代AI模型的神秘面紗,并正式宣布了旨在2024年啟動(dòng)的GPT Next宏偉計(jì)劃。
    的頭像 發(fā)表于 09-04 14:51 ?926次閱讀

    OpenAI api key獲取并可調(diào)用GPT-4.0、GPT-4o、GPT-4omini

    前言 在這篇文章中,我們詳細(xì)介紹如何申請OpenAI的GPT-4.0 API Key。通過這個(gè)教程,你將能夠輕松獲取OpenAI API KEY并使用GPT-4.0的強(qiáng)大功能。 目錄 注冊
    的頭像 發(fā)表于 08-06 15:16 ?4523次閱讀
    OpenAI api key獲取并可調(diào)用<b class='flag-5'>GPT</b>-4.0、<b class='flag-5'>GPT</b>-4o、<b class='flag-5'>GPT</b>-4omini

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來取代GPT-3.5.這是目前市場上最具成本效益的小模型。 ? 該模型在MMLU上得分為82%, 在LMSYS排行榜上的聊天偏好測試中表現(xiàn)優(yōu)于
    的頭像 發(fā)表于 07-21 10:20 ?1665次閱讀
    OpenAI 推出 <b class='flag-5'>GPT</b>-4o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> 4 而且更快 API KEY更便宜