一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Vokenization是一種比GPT-3更智能的視覺語(yǔ)言模型

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2020-11-18 10:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

學(xué)習(xí)人工智能,最好的辦法就是先考上大學(xué),學(xué)好計(jì)算機(jī)和數(shù)學(xué),其次就是生個(gè)孩子。這可不是一個(gè)段子。有了孩子之后,你會(huì)能更好理解人工智能到底是如何發(fā)生的。看著一個(gè)牙牙學(xué)語(yǔ)的小嬰兒開始對(duì)這個(gè)世界發(fā)生好奇,終于有一天開始指著一個(gè)毛茸茸的東西叫出“貓咪”的時(shí)候,你可能就會(huì)理解教會(huì)一個(gè)孩子說話并不比教會(huì)人工智能認(rèn)出一只貓更容易。

人工智能靠大量的算力和數(shù)據(jù),而人類靠著五感,還有我們那個(gè)低功率的大腦。不過,很快你就會(huì)對(duì)小孩子的學(xué)習(xí)能力驚訝不已,他會(huì)指著各種他不認(rèn)識(shí)的東西問你“這是什么”,直到你不勝其煩。等到再長(zhǎng)大一些,小孩子就不會(huì)滿足于僅僅知道這些東西的名字,開始想你發(fā)問“為什么會(huì)這樣”,再次把你問到山窮水盡。

我們知道,現(xiàn)在人工智能領(lǐng)域,圖像識(shí)別和自然語(yǔ)言處理(NLP)正處在如日中天的發(fā)展階段。在眾多單項(xiàng)上面,圖像識(shí)別的能力要遠(yuǎn)遠(yuǎn)高于普通人,甚至比專家還好,NLP的翻譯、聽讀、寫作能力更是與專業(yè)人士不相上下,特別今年推出的GPT-3,更是以超大參數(shù)規(guī)模這種氪金方式來實(shí)現(xiàn)逆天的寫作能力。

但這又怎樣?盡管GPT-3可以編造出一大段看起來很真實(shí)的假新聞,但它仍然是靠著過去的文本經(jīng)驗(yàn)來認(rèn)知世界的,它會(huì)在很多常識(shí)性的問題上犯下低級(jí)錯(cuò)誤,比如在回答“太陽(yáng)有幾只眼睛”的反常識(shí)問題上,GPT-3照樣一本正經(jīng)的給出“太陽(yáng)有一只眼睛”的答案。如果是一個(gè)人第一次碰到這種問題,它往往并不是從文本里找答案,而是真的會(huì)去看一眼太陽(yáng)的。而這正是我們?nèi)祟愓莆照Z(yǔ)言、傳遞信息最常見的一種方式。

受此啟發(fā),最近北卡羅來納大學(xué)教堂山分校的研究人員設(shè)計(jì)了一種新的AI模型來改變GPT-3的這種缺陷,他們把這一技術(shù)稱之為“Vokenization”,可以賦予像GPT-3這樣的語(yǔ)言模型以“看”的能力。這個(gè)思路很好理解,我們從來不是靠一種方式來認(rèn)識(shí)世界的,而把語(yǔ)言處理和機(jī)器視覺聯(lián)系起來,才能更好地讓人工智能來接近人的認(rèn)識(shí)能力。那么這種“Voken”技術(shù)到底好不好用,正是本文要重點(diǎn)介紹的。

無所不能的GPT-3,卻“不知道自己在說什么”

今年5月份正式出道的GPT-3,一度成為“無所不能”的代名詞,OpenAI推出的這個(gè)第三代NLP語(yǔ)言模型,包含1750億個(gè)參數(shù),采用了英文維基百科、數(shù)字化圖書、互聯(lián)網(wǎng)網(wǎng)頁(yè)等超大規(guī)模語(yǔ)料進(jìn)行訓(xùn)練,是現(xiàn)有的規(guī)模最大、也最復(fù)雜的語(yǔ)言模型。從GPT-3對(duì)外API接口開放之后,研究者就從GPT03的強(qiáng)大文本生成能力中挖掘出層出不窮的應(yīng)用,從答題、寫小說、編新聞到寫代碼、做圖表等等。但GPT-3也印證了“出道即巔峰”這句話,也是從一開始就爭(zhēng)議不斷。人們對(duì)其實(shí)際的應(yīng)用前景表示極大的懷疑。

我們復(fù)習(xí)下GPT-3的作用原理。GPT-3采用的是少示例(Few-shot)學(xué)習(xí)的方式,對(duì)于一個(gè)特定的語(yǔ)言任務(wù),只需要給定任務(wù)描述,并給出幾個(gè)從輸入到輸出的映射示例,甚至只是給出一個(gè)開頭的文本,GPT-3就可以根據(jù)前景預(yù)設(shè)自動(dòng)生成相關(guān)下文,以此來完成對(duì)話、答題、翻譯和簡(jiǎn)單的數(shù)學(xué)計(jì)算等任務(wù)。GPT-3的優(yōu)勢(shì)就在于預(yù)訓(xùn)練模型不需要使用大量標(biāo)記的訓(xùn)練數(shù)據(jù)進(jìn)行微調(diào),這種便利性為普通人進(jìn)行相關(guān)語(yǔ)言任務(wù)的使用上消除了障礙。

盡管GPT-3在很多領(lǐng)域的表現(xiàn)都令人折服,文本的質(zhì)量高到能騙過大多數(shù)人類(無法分辨到底是機(jī)器寫的還是人類寫的),但是GPT-3本身的缺陷仍然非常明顯。事實(shí)上,GPT-3的訓(xùn)練方式?jīng)Q定了它并不是真正理解“語(yǔ)義”,而是能夠基于龐大的語(yǔ)料數(shù)據(jù),進(jìn)行海量搜索,匹配相應(yīng)的答案。在這一過程中,GPT-3只是通過純粹統(tǒng)計(jì)學(xué)的方法“建立起聯(lián)系”,但是并沒有真正理解語(yǔ)義。比如在一個(gè)幫助患者減輕焦慮情緒的問答中,“患者”表示感覺很糟,想要自殺的時(shí)候,GPT-3直接回復(fù)了“你可以”。

GPT-3的問題就像是上世紀(jì)80年代John Searle提出的“中文屋實(shí)驗(yàn)”里的那個(gè)并不懂中文的翻譯者,GPT-3也只是手握著一本“無所不知”的百科全書,但是它并不清楚這個(gè)世界運(yùn)行的真實(shí)邏輯,更無法解決具體場(chǎng)景下的具體情況。之前,紐約大學(xué)的兩位教授就聯(lián)名指出人們對(duì)GPT-3作用的高估,在《傲慢自大的 GPT-3:自己都不知道自己在說什么》里提到,它(GPT-3)本身并不具有 “革命性” 的變化,也不能真正理解語(yǔ)義,如果某項(xiàng)工作的 “結(jié)果” 非常重要,那么你不能完全信任人工智能。

簡(jiǎn)單來說就是,人工智能如果想要突破文本的統(tǒng)計(jì)意義而理解語(yǔ)義,那就必須要將文本和現(xiàn)實(shí)世界建立起聯(lián)系。顯然,這一點(diǎn)GPT-3還不能做到。為了能夠讓語(yǔ)言文本和實(shí)際的世界建立起聯(lián)系,研究人員決定將語(yǔ)言模型和機(jī)器視覺結(jié)合起來,研究者們需要用一個(gè)包含文本和圖像的數(shù)據(jù)集從頭開始訓(xùn)練一個(gè)新模型,這就是被稱作“Vokenization”的視覺語(yǔ)言數(shù)據(jù)集模型。

Vokenization:如何成為既好用又夠用的數(shù)據(jù)集

我們首先如何來理解這兩種模型的差異呢?如果你問一下GPT-3這樣一個(gè)問題,“綿羊是什么顏色?”它的回答中出現(xiàn)“黑色”的可能和“白色”一樣多,因?yàn)樗茉诖罅课谋局锌吹健癇lack Sheep”(害群之馬)這個(gè)詞。而如果你問一個(gè)圖像識(shí)別模型,它就不會(huì)從抽象的文本中學(xué)習(xí),而是更直接從現(xiàn)實(shí)的圖像中學(xué)習(xí),指出“這是一只白色綿羊”,而“這是一只黑色綿羊”。

我們既需要一個(gè)知識(shí)特別豐富的機(jī)器人,也需要一個(gè)能夠看懂現(xiàn)實(shí)狀況的機(jī)器人,只有把二者結(jié)合起來,才是人工智能更接近和人類交流合作的樣子。但這個(gè)過程并不那么容易實(shí)現(xiàn)。實(shí)際上,我們常用的圖像描述是不適用的。比如下面這張圖,通常的描述,只能識(shí)別出物體“貓”,或者和貓常常一起出現(xiàn)的局部事物“水杯、毛線球、盒子和貓爪”,并沒有描述出這只貓的狀態(tài)和相互關(guān)系。

相比單純的對(duì)象標(biāo)注,Vokenization視覺語(yǔ)言數(shù)據(jù)集就需要對(duì)圖像進(jìn)行一組帶有描述性標(biāo)題的編輯。例如,下圖的標(biāo)題會(huì)是“一只坐在正在打包的行李箱中的橙色的貓”,這和典型的圖像數(shù)據(jù)集不同,它不僅是用一個(gè)名詞(例如:貓)來標(biāo)記主要對(duì)象,而是給AI模型標(biāo)注出了如何使用動(dòng)詞和介詞的相互關(guān)聯(lián)和作用。

但是這類視覺語(yǔ)言數(shù)據(jù)集的缺陷在于其數(shù)量實(shí)在太少,數(shù)據(jù)的生成和管理過程太久,相比較維基百科這種純文本包含近30億個(gè)單詞,這僅僅只占GPT-3數(shù)據(jù)集的0.6%的這樣的規(guī)模相比,像微軟的MS COCO(上下文通用對(duì)象)這樣的可視化語(yǔ)言數(shù)據(jù)集才包含700萬個(gè)數(shù)據(jù),對(duì)于訓(xùn)練一個(gè)成熟的AI模型來說顯然是不夠的。

“Vokenization”的出現(xiàn)就是要解決這個(gè)問題。像GPT-3是通過無監(jiān)督學(xué)習(xí)來訓(xùn)練的,這不需要手動(dòng)標(biāo)記數(shù)據(jù),才使它極易去擴(kuò)展規(guī)模。Vokenization也采用了無監(jiān)督的學(xué)習(xí)方法,將MS COCO中的小數(shù)據(jù)量增加到英文維基百科的級(jí)別。解決了數(shù)據(jù)源的數(shù)量差異問題,Vokenination還要面臨第二個(gè)挑戰(zhàn),就是解決視覺監(jiān)督和自然語(yǔ)言文本之間的聯(lián)接問題。

Voken代替Token:讓文本“看懂”世界

一般來看,自然語(yǔ)言中的詞匯中很大一部分是沒有視覺特征的,這為視覺監(jiān)督提出了主要的挑戰(zhàn)。我們知道,在AI訓(xùn)練語(yǔ)言模型中的單詞被稱之為Token(標(biāo)記),而研究人員則把視覺語(yǔ)言模型中與每個(gè)Token相關(guān)的圖像稱之為Voken。而Vokenizer就代表為一個(gè)Token尋找一個(gè)Voken的算法,Vokenization就代表整個(gè)算法模型實(shí)現(xiàn)的過程。

Vokenization的過程,就不是從圖像數(shù)據(jù)集開始為圖像標(biāo)注標(biāo)題,而是從一個(gè)語(yǔ)言數(shù)據(jù)集開始,采用無監(jiān)督學(xué)習(xí)的方式,將每個(gè)單詞與圖像進(jìn)行匹配,實(shí)現(xiàn)一個(gè)高擴(kuò)展性,這就是解決第一個(gè)挑戰(zhàn)的具體思路。與此同時(shí),研究者還要解決第二個(gè)挑戰(zhàn)的單詞和圖像的關(guān)聯(lián)性問題。

GPT-3使用的是“單詞嵌入”的方式,基于上下文來創(chuàng)建每個(gè)單詞的數(shù)學(xué)表示,然后依賴這些嵌入把單詞變成句子,把句子組合成段落。Vokenization采取了一種并行的嵌入技術(shù)用于掃描圖像的視覺模式。研究者舉的一個(gè)案例是,將貓出現(xiàn)在床上的頻率和出現(xiàn)在樹上的頻率繪制成一個(gè)表格,并用這些信息創(chuàng)建一只“貓”的Voken。

研究者就在MS COCO數(shù)據(jù)集上同時(shí)采用了兩種嵌入技術(shù),把圖像轉(zhuǎn)換成視覺嵌入,把字幕轉(zhuǎn)換成文字嵌入。這樣做的優(yōu)勢(shì)之處在于,這兩種嵌入可以在一個(gè)三維空間中繪制出來,并看到文字嵌入和視覺嵌入在圖形中的相互關(guān)聯(lián),一只“貓”的視覺嵌入應(yīng)該會(huì)和文本中的“貓”的嵌入相重疊。這能夠解決什么問題呢?這給文本Token提供了一種圖像化的Voken匹配,使得它能夠有更加情景化的表示,對(duì)于一個(gè)抽象的詞來說,也可以根據(jù)不同的上下文情境,具有了完全不同的意思。

比如,“Contact”這個(gè)詞,在下圖左側(cè)的Voken的匹配下,它就代表“聯(lián)系信息”的意思,在下圖右側(cè)的Voken的匹配下,就代表了“撫摸一只貓”的意思。說到這里,我們大概就能理解Voken的作用。當(dāng)GPT-3模型對(duì)于一些文本概念無法準(zhǔn)確理解其語(yǔ)境和相應(yīng)語(yǔ)義的時(shí)候,它就容易開始自我發(fā)揮,胡言亂語(yǔ),而一旦通過給這個(gè)Token找到圖像化的Voken實(shí)例,就可以真正理解這個(gè)詞的實(shí)際涵義。

現(xiàn)在,研究人員通過在MS COCO中創(chuàng)建的視覺和單詞嵌入方法來訓(xùn)練Vokenizer算法,在英語(yǔ)維基百科中已經(jīng)為40%的Token找到了Voken,盡管不到一半,但至少是30億單詞的數(shù)據(jù)集中的40%。基于這一數(shù)據(jù)集,研究人員重新訓(xùn)練了谷歌開發(fā)的BERT模型,并且在6種不同的語(yǔ)言理解的測(cè)試中測(cè)試了這一新模型,結(jié)果顯示改進(jìn)后的BERT在幾個(gè)測(cè)試方面都表現(xiàn)良好。

Vokenization現(xiàn)在還只是處在研究階段,我們也只能從其論文的結(jié)果中窺探這一模型的效果,至于這項(xiàng)新的視覺語(yǔ)言化技術(shù)的應(yīng)用和展示,還有待后面我們進(jìn)一步追蹤觀察。不敢怎樣,在無監(jiān)督學(xué)習(xí)幫助下的視覺語(yǔ)言模型,成為NLP領(lǐng)域剛剛閃現(xiàn)的一朵火花,為自然語(yǔ)言處理打開了新的思路,使得純粹的文本訓(xùn)練開始和圖像識(shí)別聯(lián)系起來。這就像讓一個(gè)博聞強(qiáng)記的機(jī)器人從“自顧自說話”,變得可以聽見和看見外界的真實(shí)狀況,能夠成為那個(gè)“睜開眼睛看世界”的人工智能。

最后,讓我們重溫一個(gè)經(jīng)典的場(chǎng)景,在海倫凱勒的自傳中,她描述了自己如何學(xué)會(huì)“Water”這個(gè)單詞的含義。又盲又聾的海倫總是搞混“杯子”和“水”的指代,直到她的老師沙利文女士帶著她來到噴池邊,一邊感受著清涼的泉水,一邊感受著沙利文在她手心寫下的“Water”,她這才終于明白了“水”的真實(shí)指代和含義。用她的話說“不知怎么回事,語(yǔ)言的秘密突然被揭開了,我終于知道水就是流過我手心的一種物質(zhì)。這個(gè)叫“水”的字喚醒了我的靈魂……”

幸好,人類在失去光明和聽覺之后,僅能通過觸覺還能理解語(yǔ)言的奧秘,那么對(duì)于人工智能來說,擁有了強(qiáng)大的圖像識(shí)別能力,又有近乎無限的文本知識(shí),那么,未來AI將能否通向一條具有像人類在日常經(jīng)驗(yàn)中學(xué)習(xí)的常識(shí)之路嗎?

fqj

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49014

    瀏覽量

    249425
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22621
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    ?VLM(視覺語(yǔ)言模型)?詳細(xì)解析

    視覺語(yǔ)言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語(yǔ)言
    的頭像 發(fā)表于 03-17 15:32 ?4080次閱讀
    ?VLM(<b class='flag-5'>視覺</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>)?詳細(xì)解析

    一種基于正交與縮放變換的大模型量化方法

    近年來,大規(guī)模語(yǔ)言模型(Large Language Models, LLMs)在自然語(yǔ)言處理領(lǐng)域取得了革命性進(jìn)展。以 GPT 系列、LLaMA 等為代表的
    的頭像 發(fā)表于 03-04 11:10 ?479次閱讀
    <b class='flag-5'>一種</b>基于正交與縮放變換的大<b class='flag-5'>模型</b>量化方法

    OpenAI即將推出GPT-5模型

    先進(jìn)技術(shù),其中包括備受矚目的o3工具。通過整合這些技術(shù),GPT-5模型將實(shí)現(xiàn)更加強(qiáng)大的功能和性能。 值得提的是,GPT-5
    的頭像 發(fā)表于 02-13 11:21 ?590次閱讀

    文詳解視覺語(yǔ)言模型

    視覺語(yǔ)言模型(VLM)是一種多模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?1758次閱讀
    <b class='flag-5'>一</b>文詳解<b class='flag-5'>視覺</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>

    OpenAI將發(fā)布智能GPT模型及AI智能體工具

    OpenAI近日透露了其未來發(fā)展的重要?jiǎng)酉?。?jù)OpenAI首席產(chǎn)品官凱文·維爾(Kevin Weil)介紹,公司計(jì)劃推出智能GPT o3模型
    的頭像 發(fā)表于 01-24 13:54 ?535次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    的局限性以及衡量大模型的關(guān)鍵指標(biāo)。閱讀了該部分后,我感受到了一種前所未有的震撼,這種震撼不僅來源于技術(shù)本身的先進(jìn)性,來源于它對(duì)傳統(tǒng)機(jī)器人控制方式的顛覆。 傳統(tǒng)機(jī)器人的局限性與大模型
    發(fā)表于 12-29 23:04

    NaVILA:加州大學(xué)與英偉達(dá)聯(lián)合發(fā)布新型視覺語(yǔ)言模型

    日前,加州大學(xué)的研究人員攜手英偉達(dá),共同推出了款創(chuàng)新的視覺語(yǔ)言模型——NaVILA。該模型在機(jī)器人導(dǎo)航領(lǐng)域展現(xiàn)出了獨(dú)特的應(yīng)用潛力,為
    的頭像 發(fā)表于 12-13 10:51 ?684次閱讀

    基于視覺語(yǔ)言模型的導(dǎo)航框架VLMnav

    本文提出了一種視覺語(yǔ)言模型(VLM)轉(zhuǎn)換為端到端導(dǎo)航策略的具體框架。不依賴于感知、規(guī)劃和控制之間的分離,而是使用VLM在步中直接選擇動(dòng)作
    的頭像 發(fā)表于 11-22 09:42 ?792次閱讀

    LLM技術(shù)的未來趨勢(shì)分析

    。 技術(shù)進(jìn)步 1. 模型規(guī)模的增長(zhǎng) 隨著計(jì)算能力的提升和數(shù)據(jù)集的擴(kuò)大,LLM的規(guī)模也在不斷增長(zhǎng)。更大的模型能夠捕捉復(fù)雜的語(yǔ)言模式,提高任務(wù)的性能。例如,
    的頭像 發(fā)表于 11-08 09:35 ?1137次閱讀

    Llama 3GPT-4 比較

    沿。 、技術(shù)架構(gòu) Llama 3GPT-4都是基于深度學(xué)習(xí)的自然語(yǔ)言處理(NLP)模型,但它們的設(shè)計(jì)理念和技術(shù)細(xì)節(jié)有所不同。 Llama
    的頭像 發(fā)表于 10-27 14:17 ?1152次閱讀

    Llama 3 語(yǔ)言模型應(yīng)用

    在人工智能領(lǐng)域,語(yǔ)言模型的發(fā)展直是研究的熱點(diǎn)。隨著技術(shù)的不斷進(jìn)步,我們見證了從簡(jiǎn)單的關(guān)鍵詞匹配到復(fù)雜的上下文理解的轉(zhuǎn)變。 、Llama
    的頭像 發(fā)表于 10-27 14:15 ?736次閱讀

    英偉達(dá)預(yù)測(cè)機(jī)器人領(lǐng)域或迎“GPT-3時(shí)刻”

    未來2-3年內(nèi),機(jī)器人基礎(chǔ)模型的研究將迎來重大突破,這時(shí)刻被形象地比喻為機(jī)器人領(lǐng)域的“GPT-3時(shí)刻”。
    的頭像 發(fā)表于 09-20 17:05 ?1074次閱讀

    Jim Fan展望:機(jī)器人領(lǐng)域即將迎來GPT-3式突破

    英偉達(dá)科學(xué)家9月19日,科技媒體The Decoder發(fā)布了則引人關(guān)注的報(bào)道,英偉達(dá)高級(jí)科學(xué)家Jim Fan在近期預(yù)測(cè),機(jī)器人技術(shù)將在未來兩到三年內(nèi)迎來類似GPT-3語(yǔ)言處理領(lǐng)域的革命性突破,他稱之為機(jī)器人領(lǐng)域的“
    的頭像 發(fā)表于 09-19 15:13 ?944次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的表達(dá)方式和生成能力。通過預(yù)測(cè)文本中缺失的部分或下個(gè)詞,模型逐漸掌握語(yǔ)言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語(yǔ)言
    發(fā)表于 08-02 11:03

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    GPT-4. GPT-4o mini的定價(jià)為每百萬輸入標(biāo)記15美分和每百萬輸出標(biāo)記60美分,之前的前沿模型便宜了個(gè)數(shù)量級(jí),
    的頭像 發(fā)表于 07-21 10:20 ?1677次閱讀
    OpenAI 推出 <b class='flag-5'>GPT</b>-4o mini 取代<b class='flag-5'>GPT</b> 3.5 性能超越<b class='flag-5'>GPT</b> 4 而且更快 API KEY更便宜