一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

性能媲美同時(shí)成本降低98%,斯坦福提出FrugalGPT,研究卻惹爭(zhēng)議

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:機(jī)器之心 ? 2023-06-08 15:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Game Changer 還是標(biāo)題黨?

隨著大型語(yǔ)言模型(LLM)的發(fā)展,人工智能正處于變革的爆發(fā)期。眾所周知,LLM 可用于商業(yè)、科學(xué)和金融等應(yīng)用,因而越來(lái)越多的公司(OpenAI、AI21、CoHere 等)都在提供 LLM 作為基礎(chǔ)服務(wù)。雖然像 GPT-4 這樣的 LLM 在問(wèn)答等任務(wù)中取得了前所未有的性能,但因?yàn)槠涓咄掏铝康奶刭|(zhì),使得它們?cè)趹?yīng)用中非常昂貴。

例如,ChatGPT 每天的運(yùn)營(yíng)成本超過(guò) 70 萬(wàn)美元,而使用 GPT-4 來(lái)支持客戶(hù)服務(wù)可能會(huì)讓一個(gè)小企業(yè)每月花費(fèi)超過(guò) 2.1 萬(wàn)美元。除了金錢(qián)成本外,使用最大的 LLM 還會(huì)帶來(lái)巨大的環(huán)境和能源影響。

現(xiàn)在很多公司通過(guò) API 提供 LLM 服務(wù),它們收費(fèi)各異。使用 LLM API 的成本通常包括三個(gè)組成部分:1)prompt 成本(與 prompt 的長(zhǎng)度成比例),2)生成成本(與生成的長(zhǎng)度成比例),以及 3)有時(shí)還會(huì)有對(duì)于每個(gè)查詢(xún)的固定成本。

下表 1 比較了 12 個(gè)不同商業(yè) LLM 的成本,這些 LLM 來(lái)自主流供應(yīng)商,包括 OpenAI、AI21、CoHere 和 Textsynth。它們的成本相差高達(dá) 2 個(gè)數(shù)量級(jí):例如,對(duì)于 1000 萬(wàn)個(gè) token,OpenAI 的 GPT-4 的 prompt 成本為 30 美元,而 Textsynth 托管的 GPT-J 僅為 0.2 美元。

611fea84-0575-11ee-8a94-dac502259ad0.png

成本和準(zhǔn)確性之間的平衡是決策制定的關(guān)鍵因素,尤其是在采用新技術(shù)時(shí)。如何有效和高效地利用 LLM 是從業(yè)者面臨的關(guān)鍵挑戰(zhàn):如果任務(wù)相對(duì)簡(jiǎn)單,那么聚合來(lái)自 GPT-J (其規(guī)模比 GPT-3 小 30 倍)的多個(gè)響應(yīng)可以實(shí)現(xiàn)與 GPT-3 類(lèi)似的性能,從而實(shí)現(xiàn)成本和環(huán)境上的權(quán)衡。然而,在較為困難任務(wù)上,GPT-J 的性能可能會(huì)大大下降。因此,如何經(jīng)濟(jì)高效地使用 LLM 需要采用新的方法。

最近的一項(xiàng)研究嘗試提出解決這一成本問(wèn)題的方法,研究者通過(guò)實(shí)驗(yàn)表明,F(xiàn)rugalGPT 可以與最佳個(gè)體 LLM(例如 GPT-4) 的性能相媲美,成本降低高達(dá) 98%,或者在相同成本下將最佳個(gè)體 LLM 的準(zhǔn)確性提高 4%。

612ac846-0575-11ee-8a94-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2305.05176.pdf

來(lái)自斯坦福大學(xué)的研究者回顧了使用 LLM API(例如 GPT-4,ChatGPT,J1-Jumbo)所需的成本,并發(fā)現(xiàn)這些模型具有不同的定價(jià),費(fèi)用可能相差兩個(gè)數(shù)量級(jí),特別是在大量查詢(xún)和文本上使用 LLM 可能更昂貴?;谶@一點(diǎn),該研究概述并討論了用戶(hù)可以利用的三種策略來(lái)降低使用 LLM 的推理成本:1)prompt 適應(yīng),2)LLM 近似和 3)LLM 級(jí)聯(lián)。此外,該研究提出了級(jí)聯(lián) LLM 一個(gè)簡(jiǎn)單而靈活的實(shí)例 FrugalGPT,它學(xué)習(xí)在不同查詢(xún)中使用哪些 LLM 組合以減少成本并提高準(zhǔn)確性。

這項(xiàng)研究提出的思想和發(fā)現(xiàn)為可持續(xù)高效地使用 LLM 奠定了基礎(chǔ)。如果能夠在不增加預(yù)算的情況下采用更高級(jí)的 AI 功能,這可能會(huì)推動(dòng)人工智能技術(shù)在各個(gè)行業(yè)的更廣泛采用,即使是較小的企業(yè)也有能力在其運(yùn)營(yíng)中實(shí)施復(fù)雜的人工智能模型。

當(dāng)然,這只是一個(gè)角度,F(xiàn)rugalGPT 到底能實(shí)現(xiàn)怎樣的影響力,能否成為「AI 行業(yè)的游戲規(guī)則改變者」,還需要一段時(shí)間才能揭曉。在論文發(fā)布之后,這項(xiàng)研究也引發(fā)了一些爭(zhēng)議:

61385ace-0575-11ee-8a94-dac502259ad0.png

「摘要嚴(yán)重夸大了論文的內(nèi)容,這里的標(biāo)題也有嚴(yán)重的誤導(dǎo)性。他們所做的是設(shè)計(jì)了一種方法,以減少在論文中所涉及的一類(lèi)問(wèn)題中需要調(diào)用高端模型的次數(shù)。這不是以 2% 的成本替代 GPT-4,也不是以 4% 的精度替代 GPT-4。它是一種將 GPT-4 與更低廉的模型和支持性基礎(chǔ)設(shè)施相結(jié)合的方法。摘要中沒(méi)有指出的是,這需要建立一個(gè)自定義模型來(lái)對(duì)結(jié)果進(jìn)行評(píng)分,而這是該機(jī)制的真正核心?!?這種方法有合法的用例,其中包括基本的成本工程,如緩存結(jié)果。但對(duì)于大多數(shù)用例來(lái)說(shuō),這完全不相關(guān),因?yàn)槟銢](méi)有一個(gè)合適的評(píng)分模型?!?/p>

61455f4e-0575-11ee-8a94-dac502259ad0.png

「他們只在三個(gè)(小的)數(shù)據(jù)集上評(píng)估了這一點(diǎn),并且沒(méi)有提供關(guān)于 FrugalGPT 選擇各自模型的頻率的信息。另外,他們報(bào)告說(shuō)較小的模型取得了比 GPT-4 更高的準(zhǔn)確性,這使我對(duì)這篇論文總體上非常懷疑?!?/p>

具體如何判斷,讓我們看一下論文內(nèi)容。

如何經(jīng)濟(jì)、準(zhǔn)確地使用 LLM

接下來(lái)論文介紹了如何在預(yù)算范圍內(nèi)高效的使用 LLM API。如圖 1 (b) 所示,該研究討論了三種降低成本的策略,即 prompt 適應(yīng)、LLM 近似和 LLM 級(jí)聯(lián)。

614dbf90-0575-11ee-8a94-dac502259ad0.png

策略 1:prompt 適應(yīng)。LLM 查詢(xún)的成本與 prompt 的大小呈線(xiàn)性增長(zhǎng)。因此,降低使用 LLM API 成本的一個(gè)合理方法包括減小 prompt 大小,該研究將這個(gè)過(guò)程稱(chēng)為 prompt 適應(yīng)。prompt 選擇如圖 2(a)所示:與使用包含許多示例以演示如何執(zhí)行任務(wù)的 prompt 相比,可以只保留 prompt 中的一個(gè)小子集示例。這將導(dǎo)致更小的 prompt 和更低的成本。另一個(gè)例子是查詢(xún)串聯(lián)(圖 2(b)所示)。

61569d18-0575-11ee-8a94-dac502259ad0.png

策略 2:LLM 近似。LLM 近似的概念非常簡(jiǎn)單:如果使用 LLM API 成本太高,可以使用更實(shí)惠的模型或基礎(chǔ)設(shè)施進(jìn)行近似。其中一個(gè)例子如圖 2(c)所示,其基本思想是在向 LLM API 提交查詢(xún)時(shí)將響應(yīng)存儲(chǔ)在本地緩存(例如數(shù)據(jù)庫(kù))中。LLM 近似的另一個(gè)例子是模型微調(diào),如圖 2 (d) 所示。

策略 3:LLM 級(jí)聯(lián)。不同的 LLM API 在各種查詢(xún)中都有自己的優(yōu)勢(shì)和劣勢(shì)。因此,適當(dāng)選擇要使用的 LLM 既能降低成本又能提高性能。如圖 2(e)所示為 LLM 級(jí)聯(lián)的一個(gè)例子。

成本的降低與精度的提高

研究者進(jìn)行了一項(xiàng)關(guān)于 FrugalGPT LLM 級(jí)聯(lián)的實(shí)證研究,目標(biāo)有三個(gè):

了解 LLM 級(jí)聯(lián)的簡(jiǎn)單實(shí)例所學(xué)習(xí)的內(nèi)容;

量化 FrugalGPT 在匹配最佳的單個(gè) LLM API 的性能時(shí)實(shí)現(xiàn)的成本節(jié)約;

衡量 FrugalGPT 所實(shí)現(xiàn)的性能和成本之間的 trade-off。

實(shí)驗(yàn)設(shè)置分為幾方面:LLM API(表 1)、任務(wù)、數(shù)據(jù)集(表 2)和 FrugalGPT 實(shí)例。

61603c24-0575-11ee-8a94-dac502259ad0.png

FrugalGPT 是在上述 API 之上開(kāi)發(fā)的,并在一系列屬于不同任務(wù)的數(shù)據(jù)集上進(jìn)行了評(píng)估。其中,HEADLINES 是一個(gè)金融新聞數(shù)據(jù)集,目標(biāo)是通過(guò)閱讀金融新聞標(biāo)題來(lái)確定金價(jià)趨勢(shì)(上升、下降、中性或無(wú)),這對(duì)于過(guò)濾金融市場(chǎng)的相關(guān)新聞特別有用;OVERRULING 是一個(gè)法律文件數(shù)據(jù)集,其目標(biāo)是確定一個(gè)給定的句子是否是一個(gè)「overruling」,即推翻以前的法律案件;COQA 是一個(gè)在對(duì)話(huà)環(huán)境中開(kāi)發(fā)的閱讀理解數(shù)據(jù)集,研究者將其改編為一個(gè)直接查詢(xún)回答任務(wù)。 他們專(zhuān)注于 LLM 級(jí)聯(lián)方法,級(jí)聯(lián)長(zhǎng)度為 3,因?yàn)檫@簡(jiǎn)化了優(yōu)化空間,并且已經(jīng)展示了良好的結(jié)果。每個(gè)數(shù)據(jù)集被隨機(jī)分成一個(gè)訓(xùn)練集來(lái)學(xué)習(xí) LLM 級(jí)聯(lián)和一個(gè)測(cè)試集進(jìn)行評(píng)估。

616e875c-0575-11ee-8a94-dac502259ad0.png

這里是一個(gè) HEADLINES 數(shù)據(jù)集案例研究:設(shè)定預(yù)算為 6.5 美元,是 GPT-4 成本的五分之一。采用針對(duì)回歸的 DistilBERT [SDCW19] 作為評(píng)分函數(shù)。值得注意的是,DistilBERT 比這里考慮的所有 LLM 都要小得多,因此成本較低。如圖 3(a)所示,學(xué)習(xí)的 FrugalGPT 順序調(diào)用 GPT-J、J1-L 和 GPT-4。對(duì)于任何給定的查詢(xún),它首先從 GPT-J 中提取一個(gè)答案。如果這個(gè)答案的分?jǐn)?shù)大于 0.96,這個(gè)答案就被接受為最終的響應(yīng)。

否則,將對(duì) J1-L 進(jìn)行查詢(xún)。如果 J1-L 的答案得分大于 0.37,則被接受為最終答案;否則,將調(diào)用 GPT-4 來(lái)獲得最終答案。有趣的是,這種方法在許多查詢(xún)中都優(yōu)于 GPT-4。例如,基于納斯達(dá)克的頭條新聞「美國(guó) GDP 數(shù)據(jù)慘淡,黃金脫離低點(diǎn)」,F(xiàn)rugalGPT 準(zhǔn)確地預(yù)測(cè)了價(jià)格將下跌,而 GPT-4 提供了一個(gè)錯(cuò)誤的答案(如圖 3(b)所示)。

總體來(lái)說(shuō),F(xiàn)rugalGPT 的結(jié)果是既提高了準(zhǔn)確率又降低了成本。如圖 3 (c) 所示,其成本降低了 80%,而準(zhǔn)確率甚至高出 1.5%。

6176906e-0575-11ee-8a94-dac502259ad0.png

LLM 的多樣性

為什么多個(gè) LLM API 有可能產(chǎn)生比最好的單個(gè) LLM 更好的性能?從本質(zhì)上講,這是由于生成的多樣性:即使是一個(gè)低成本的 LLM 有時(shí)也能正確地回答更高成本的 LLM 所不能回答的查詢(xún)。為了衡量這種多樣性,研究者使用最大的性能改進(jìn),也可以成為 MPI。LLM A 相對(duì)于 LLM B 的 MPI 是指 LLM A 產(chǎn)生正確答案而 LLM B 提供錯(cuò)誤答案的概率。這個(gè)指標(biāo)實(shí)質(zhì)上是衡量在調(diào)用 LLM B 的同時(shí)調(diào)用 LLM A 所能達(dá)到的最大性能提升。

圖 4 顯示了所有數(shù)據(jù)集的每一對(duì) LLM API 之間的 MPI。在 HEADLINES 數(shù)據(jù)集上,GPT-C、GPT-J 和 J1-L 都可以將 GPT-4 的性能提高 6%。在 COQA 數(shù)據(jù)集上,有 13% 的數(shù)據(jù)點(diǎn) GPT-4 出現(xiàn)了錯(cuò)誤,但 GPT-3 提供了正確的答案。盡管這些改進(jìn)的上界可能并不總是可以實(shí)現(xiàn)的,但它們確實(shí)證明了利用更低廉的服務(wù)來(lái)實(shí)現(xiàn)更好性能的可能性。

618b37da-0575-11ee-8a94-dac502259ad0.png

成本節(jié)約

隨后,研究者考察了 FrugalGPT 是否能在保持準(zhǔn)確性的同時(shí)降低成本,如果能,又能降低多少。表 3 顯示了 FrugalGPT 的總體成本節(jié)約,范圍從 50% 到 98%。這是可行的,因?yàn)?FrugalGPT 可以識(shí)別那些可以由較小的 LLM 準(zhǔn)確回答的查詢(xún),因此只調(diào)用那些具有成本效益的 LLM。而強(qiáng)大但昂貴的 LLM,如 GPT-4,只用于由 FrugalGPT 檢測(cè)到的挑戰(zhàn)性查詢(xún)。

61981d42-0575-11ee-8a94-dac502259ad0.png

性能和成本的權(quán)衡

接著,研究者探討了 FrugalGPT 實(shí)現(xiàn)的性能和成本之間的權(quán)衡,如圖 5 所示,得出了幾個(gè)有趣的觀察結(jié)果。

首先,不同 LLM API 的成本排名并不是固定的。此外,更昂貴的 LLM APIs 有時(shí)會(huì)導(dǎo)致比其更便宜的同類(lèi)產(chǎn)品更差的性能。這些觀察結(jié)果強(qiáng)調(diào)了適當(dāng)選擇 LLM API 的重要性,即使在沒(méi)有預(yù)算限制的情況下。

接下來(lái),研究者還注意到,F(xiàn)rugalGPT 能夠在所有被評(píng)估的數(shù)據(jù)集上實(shí)現(xiàn)平滑的性能 - 成本權(quán)衡。這為 LLM 用戶(hù)提供了靈活的選擇,并有可能幫助 LLM API 供應(yīng)商節(jié)約能源和減少碳排放。事實(shí)上,F(xiàn)rugalGPT 可以同時(shí)降低成本和提高精確度,這可能是因?yàn)?FrugalGPT 整合了來(lái)自多個(gè) LLM 的知識(shí)。

圖 5 所示的例子查詢(xún)進(jìn)一步解釋了為什么 FrugalGPT 可以同時(shí)提高性能和降低成本。GPT-4 在一些查詢(xún)上犯了錯(cuò)誤,比如例如(a)部分的第一個(gè)例子,但一些低成本的 API 提供了正確的預(yù)測(cè)。FrugalGPT 準(zhǔn)確地識(shí)別了這些查詢(xún),并完全依賴(lài)低成本的 API。例如,GPT-4 錯(cuò)誤地從法律陳述「現(xiàn)在是協(xié)調(diào)和規(guī)范我們?cè)谶@個(gè)領(lǐng)域的案件的時(shí)候了」中推斷出沒(méi)有推翻,如圖 5(b)所示。

然而,F(xiàn)rugalGPT 接受了 GPT-J 的正確答案,避免了昂貴的 LLM 的使用,提高了整體性能。當(dāng)然,單一的 LLM API 并不總是正確的;LLM 級(jí)聯(lián)通過(guò)采用一連串的 LLM API 克服了這一點(diǎn)。例如,在圖 5 (a) 所示的第二個(gè)例子中,F(xiàn)rugalGPT 發(fā)現(xiàn) GPT-J 的生成可能不可靠,于是轉(zhuǎn)向鏈中的第二個(gè) LLM J1-L,以找到正確的答案。同樣,GPT-4 提供了錯(cuò)誤的答案。FrugalGPT 并不完美,仍有足夠的空間來(lái)減少成本。例如,在圖 5 (c) 的第三個(gè)例子中,鏈中所有的 LLM API 都給出了相同的答案。然而,F(xiàn)rugalGPT 不確定第一個(gè) LLM 是否正確,導(dǎo)致需要查詢(xún)鏈中的所有 LLM。確定如何避免這種情況仍然是一個(gè)開(kāi)放的問(wèn)題。

61a23250-0575-11ee-8a94-dac502259ad0.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    1617

    瀏覽量

    64034
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16085
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1589

    瀏覽量

    9100

原文標(biāo)題:GPT-4 API平替?性能媲美同時(shí)成本降低98%,斯坦福提出FrugalGPT,研究卻惹爭(zhēng)議

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    斯坦福開(kāi)發(fā)過(guò)熱自動(dòng)斷電電池

    導(dǎo)致起火。開(kāi)發(fā)電池的斯坦福教授  在斯坦福開(kāi)發(fā)的新電池中,研究人員采用聚乙烯薄膜材料,薄膜上嵌入了鎳磁粉,它會(huì)形成納米級(jí)的突起。研究人員在突起部分覆蓋石墨烯導(dǎo)電材料,讓電流可以從表面通
    發(fā)表于 01-12 11:57

    關(guān)于斯坦福的CNTFET的問(wèn)題

    之前下載了斯坦福2015年的CNTFET VS model,是.va的文件,不知道怎么用啊,該怎么通過(guò)cadence的pspice進(jìn)行仿真啊,求指點(diǎn)
    發(fā)表于 01-26 13:47

    斯坦福cs231n編程作業(yè)之k近鄰算法

    深度學(xué)習(xí)斯坦福cs231n編程作業(yè)#1 --- k近鄰算法(k-NN)
    發(fā)表于 05-07 12:03

    哪位大神能找到斯坦福 EE214B/314A 授課視頻資源?

    求助,哪位大神能找到斯坦福EE214B/314A授課視頻資源?
    發(fā)表于 06-22 07:41

    回收新舊 斯坦福SRS DG645 延遲發(fā)生器

    回收新舊 斯坦福SRS DG645 延遲發(fā)生器 歐陽(yáng)R:*** QQ:1226365851溫馨提示:如果您找不到聯(lián)系方式,請(qǐng)?jiān)跒g覽器上搜索一下,旺貿(mào)通儀器儀回收工廠或個(gè)人、庫(kù)存閑置、二手儀器及附件
    發(fā)表于 07-14 10:34

    DG645 斯坦福 SRS DG645 延遲發(fā)生器 現(xiàn)金回收

    DG645 斯坦福 SRS DG645 延遲發(fā)生器 現(xiàn)金回收 歐陽(yáng)R:*** QQ:1226365851溫馨提示:如果您找不到聯(lián)系方式,請(qǐng)?jiān)跒g覽器上搜索一下,旺貿(mào)通儀器儀回收工廠或個(gè)人、庫(kù)存閑置
    發(fā)表于 01-11 10:08

    長(zhǎng)期銷(xiāo)售回收Stanford Research SR830斯坦福SR830鎖相放大器

    )自動(dòng)增益、-phase、-reserve 和 -offset綜合參考源GPIB 和 RS-232 接口斯坦福研究系統(tǒng)公司的 SR830 鎖相放大器以合理的成本提供高性能。SR830
    發(fā)表于 02-22 10:53

    美國(guó) 原裝 斯坦福 SR830+SR850鎖定放大器

    、-reserve 和 -offset綜合參考源GPIB 和 RS-232 接口斯坦福研究系統(tǒng)公司的 SR830 鎖相放大器以合理的成本提供高性能。SR830
    發(fā)表于 03-08 15:56

    "現(xiàn)代愛(ài)迪生"鎳氫反應(yīng)電池發(fā)明者斯坦福逝世

    ;的斯坦福,一生中發(fā)明了200多項(xiàng)專(zhuān)利,其中包括了薄膜太陽(yáng)能電池及氫燃料電池等。20世紀(jì)50年代,斯坦福提出了只有有序的晶體才具備了導(dǎo)電性質(zhì)的觀點(diǎn),這在當(dāng)時(shí)的學(xué)術(shù)界并不被認(rèn)同
    發(fā)表于 10-19 16:52 ?2563次閱讀

    斯坦福提出基于目標(biāo)的策略強(qiáng)化學(xué)習(xí)方法——SOORL

    為了達(dá)到人類(lèi)學(xué)習(xí)的速率,斯坦福研究人員們提出了一種基于目標(biāo)的策略強(qiáng)化學(xué)習(xí)方法——SOORL,把重點(diǎn)放在對(duì)策略的探索和模型選擇上。
    的頭像 發(fā)表于 06-06 11:18 ?5681次閱讀
    <b class='flag-5'>斯坦福</b><b class='flag-5'>提出</b>基于目標(biāo)的策略強(qiáng)化學(xué)習(xí)方法——SOORL

    斯坦福開(kāi)啟以人為中心的AI計(jì)劃

    李飛飛宣布斯坦福開(kāi)啟「以人為中心的 AI 計(jì)劃」(Human-Centered AI Initiative,HAI),該項(xiàng)目由李飛飛和斯坦福大學(xué)前教務(wù)長(zhǎng) John Etchemendy 共同主導(dǎo),Chris Manning 也參與其中。
    的頭像 發(fā)表于 10-25 11:45 ?4092次閱讀

    斯坦福“以人為本人工智能研究院”——Stanford HAI正式上線(xiàn)!

    斯坦福大學(xué)有著深厚的多學(xué)科研究傳統(tǒng),斯坦福HAI正是在這一傳統(tǒng)的基礎(chǔ)上發(fā)展起來(lái)的。我們正在匯集多個(gè)領(lǐng)域的領(lǐng)先思想家,以便我們能夠更好地為未來(lái)的領(lǐng)導(dǎo)者做好準(zhǔn)備,讓他們學(xué)習(xí)、構(gòu)建、發(fā)明并擴(kuò)展目標(biāo)、意圖和以人為本的方法。
    的頭像 發(fā)表于 03-15 09:03 ?4570次閱讀

    2021年斯坦福關(guān)于AI的全面報(bào)告

    2021 年度的斯坦福 AI Index 報(bào)告正式發(fā)布,從七大版塊出發(fā),探討了過(guò)去一年中的 AI 總體發(fā)展情況。
    的頭像 發(fā)表于 03-12 10:23 ?3195次閱讀

    斯坦福STANFORD FS725銣鐘

    斯坦福STANFORD FS725銣鐘 SRS斯坦福FS725 10MHzRb頻率標(biāo)準(zhǔn) ? SRS斯坦福FS72510MHzRb頻率標(biāo)準(zhǔn)FS725集成了一個(gè)銣振蕩器(SRS模型PRS10),一個(gè)
    的頭像 發(fā)表于 12-13 15:22 ?544次閱讀

    詳解《斯坦福 AI 報(bào)告 2025》:國(guó)產(chǎn)模型崛起、清華論文領(lǐng)先

    斯坦福AI指數(shù)報(bào)告這是一份影響力很大的報(bào)告,每年一期。該報(bào)告旨在追蹤、整合、提煉并可視化與人工智能(AI)相關(guān)的各類(lèi)數(shù)據(jù)。報(bào)告提供無(wú)偏見(jiàn)、經(jīng)過(guò)嚴(yán)格審查、來(lái)源廣泛的數(shù)據(jù),幫助政策制定者、研究人員、高管
    的頭像 發(fā)表于 04-17 18:05 ?806次閱讀
    詳解《<b class='flag-5'>斯坦福</b> AI 報(bào)告 2025》:國(guó)產(chǎn)模型崛起、清華論文領(lǐng)先