一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何最好地使用所有可用的 LLM 工具

Qxwdz168 ? 來源:計(jì)算機(jī)視覺芯片設(shè)計(jì) ? 2023-05-23 17:22 ? 次閱讀

許多企業(yè)(OpenAI、AI21、CoHere 等)正在提供 LLM 作為服務(wù),因?yàn)樗鼈冊谏虡I(yè)、科學(xué)和金融環(huán)境中具有誘人的潛力。雖然 GPT-4 和其他 LLM 在諸如問答等任務(wù)上展示了破紀(jì)錄的性能,但它們在高吞吐量應(yīng)用程序中的使用可能會非常昂貴。例如,使用 GPT-4 協(xié)助客戶服務(wù)可能會使小型企業(yè)每月花費(fèi)超過 21,000 美元,而 ChatGPT 預(yù)計(jì)每天花費(fèi)超過 700,000 美元。使用最大的 LLM 需要付出高昂的貨幣代價(jià),并對環(huán)境和社會產(chǎn)生嚴(yán)重的負(fù)面影響。

研究表明,許多 LLM 可以通過 API 以各種定價(jià)獲得。使用 LLM API 的成本通常分為三個(gè)部分:

提示成本(與提示的持續(xù)時(shí)間成比例)
生成成本(與生成長度成比例)
每個(gè)問題的固定費(fèi)用。
鑒于價(jià)格和質(zhì)量的廣泛差異,從業(yè)者可能很難決定如何最好地使用所有可用的 LLM 工具。此外,如果服務(wù)中斷,則依賴單個(gè) API 提供者是不可靠的,這可能發(fā)生在意外高需求的情況下。

上傳失敗,網(wǎng)絡(luò)異常。

重試

當(dāng)前模型級聯(lián)和 FrugalML 等模型集成范例未考慮 LLM 的局限性,這些范例是為具有固定標(biāo)簽集的預(yù)測任務(wù)開發(fā)的。

斯坦福大學(xué)最近的研究提出了一個(gè)名為 FrugalGPT 的預(yù)算友好型框架的概念,它利用 LLM API 來處理自然語言查詢。

及時(shí)適應(yīng)、LLM 近似和 LLM 級聯(lián)是降低成本的三種主要方法。為了節(jié)省開支,提示適應(yīng)調(diào)查了確定哪些提示最有效的方法。通過近似復(fù)雜且昂貴的 LLM,可以開發(fā)更簡單且更具成本效益的替代方案,其性能與原始方案一樣好。 LLM 級聯(lián)的關(guān)鍵思想是為各種查詢動態(tài)選擇合適的 LLM API。

實(shí)施并評估了基于 LLM 級聯(lián)構(gòu)建的 FrugalGPT 基本版本,以展示這些想法的潛力。對于每個(gè)數(shù)據(jù)集和任務(wù),F(xiàn)rugalGPT 學(xué)習(xí)如何自適應(yīng)地將數(shù)據(jù)集中的問題分類到 LLM 的各種組合,例如 ChatGPT、GPT-3 和 GPT-4。與最好的單個(gè) LLM API 相比,F(xiàn)rugalGPT 節(jié)省了高達(dá) 98% 的推理成本,同時(shí)在下游任務(wù)上保持相同的性能。另一方面,F(xiàn)rugalGPT 可以以相同的價(jià)格實(shí)現(xiàn)高達(dá) 4% 的性能提升。

FrugalGPT 的 LLM 級聯(lián)技術(shù)需要對標(biāo)記示例進(jìn)行訓(xùn)練。此外,為了使級聯(lián)有效,訓(xùn)練和測試示例應(yīng)該具有相同或相似的分布。此外,掌握LLM級聯(lián)也需要時(shí)間和精力。

FrugalGPT 尋求性能和成本之間的平衡,但其他因素,包括延遲、公平性、隱私和環(huán)境影響,在實(shí)踐中更為重要。該團(tuán)隊(duì)認(rèn)為,未來的研究應(yīng)側(cè)重于在不犧牲性能或成本效益的情況下將這些功能納入優(yōu)化方法。 LLM 生成的結(jié)果的不確定性也需要仔細(xì)量化以用于風(fēng)險(xiǎn)關(guān)鍵型應(yīng)用。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    1555

    瀏覽量

    63304
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1221

    瀏覽量

    25202
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    291

    瀏覽量

    13569
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    316

    瀏覽量

    645

原文標(biāo)題:斯坦福研究人員介紹 FrugalGPT:一種新的 AI 框架,用于 LLM API 處理自然語言查詢

文章出處:【微信號:計(jì)算機(jī)視覺芯片設(shè)計(jì),微信公眾號:計(jì)算機(jī)視覺芯片設(shè)計(jì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    對比解碼在LLM上的應(yīng)用

    為了改進(jìn)LLM的推理能力,University of California聯(lián)合Meta AI實(shí)驗(yàn)室提出將Contrastive Decoding應(yīng)用于多種任務(wù)的LLM方法。實(shí)驗(yàn)表明,所提方法能有效改進(jìn)LLM的推理能力。讓我們走進(jìn)
    發(fā)表于 09-21 11:37 ?805次閱讀
    對比解碼在<b class='flag-5'>LLM</b>上的應(yīng)用

    有什么好用的verilog HDL編輯工具可用?

    有什么好用的verilog HDL編輯工具可用?最好能集成實(shí)時(shí)的verilog HDL語法檢測、自定義模塊識別觸發(fā)等功能,最好能夠免費(fèi);
    發(fā)表于 04-28 11:00

    部落沖突輔助工具終極推薦:免root離線掛機(jī)【本人用過所有輔助中最好的】

    部落沖突輔助工具終極推薦:免root離線掛機(jī)【本人用過所有輔助中最好的】相信很多小伙伴都玩部落沖突好久了,偶也是,為了節(jié)省時(shí)間、精力升本,有時(shí)候會借助下工具,哈哈!部落沖突輔助
    發(fā)表于 02-24 11:56

    最好的殺木馬清除工具

    推薦最強(qiáng)最好的殺木馬清除工具AVGAnti-Spyware--極致安全完美防護(hù).針對因特網(wǎng)上傳播的新一代安全威脅的有效解決方案.確保您的數(shù)據(jù)安全,保護(hù)您的隱私,抵御間諜軟件,廣告軟件,木馬
    發(fā)表于 01-17 13:19 ?47次下載

    最好的最強(qiáng)的殺木馬工具

    最好的最強(qiáng)的殺木馬工具,AVG Anti-Spyware -- 極致安全 完美防護(hù).針對因特網(wǎng)上傳播的新一代安全威脅的有效解決方案.確保您的數(shù)據(jù)安全,保護(hù)您的隱私,抵御間諜軟件,廣告軟件,
    發(fā)表于 07-17 10:39 ?15次下載

    Microsoft已經(jīng)確認(rèn)它將很快可用所有兼容設(shè)備

    到目前為止,該新功能只能由Windows Insider程序的代表進(jìn)行測試。誰已收到Build 20185的更新。Microsoft已經(jīng)確認(rèn)它將很快可用所有兼容設(shè)備。
    的頭像 發(fā)表于 09-25 16:39 ?2254次閱讀

    如何用旁路工具提升網(wǎng)絡(luò)可用性?

    在將內(nèi)聯(lián)安全工具構(gòu)建到您的網(wǎng)絡(luò)中時(shí),結(jié)合網(wǎng)絡(luò)旁路技術(shù)是避免代價(jià)高昂的網(wǎng)絡(luò)停機(jī)時(shí)間的基本最佳實(shí)踐。簡而言之,旁路 TAP,也稱為“旁路交換機(jī)”,能夠隨時(shí)管理內(nèi)聯(lián)工具可用性,而無需中斷網(wǎng)絡(luò)或影響業(yè)務(wù)
    的頭像 發(fā)表于 06-25 14:41 ?1427次閱讀

    中國研究人員提出StructGPT,提高LLM對結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

    盡管結(jié)構(gòu)化數(shù)據(jù)的體量往往非常巨大,但不可能容納輸入提示中的所有數(shù)據(jù)記錄(例如,ChatGPT 的最大上下文長度為 4096)。將結(jié)構(gòu)化數(shù)據(jù)線性化為 LLM 可以輕松掌握的語句是解決此問題的簡單方法。工具操作技術(shù)激勵(lì)他們增強(qiáng)
    的頭像 發(fā)表于 05-24 16:02 ?3378次閱讀
    中國研究人員提出StructGPT,提高<b class='flag-5'>LLM</b>對結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

    NVIDIA AI Foundation Models:使用生產(chǎn)就緒型 LLM 構(gòu)建自定義企業(yè)聊天機(jī)器人和智能副駕

    ? 系列基礎(chǔ)模型是一套功能強(qiáng)大的全新工具,可用于為企業(yè)構(gòu)建生產(chǎn)就緒生成式 AI 應(yīng)用,從而推動從客服 AI 聊天機(jī)器人到尖端 AI 產(chǎn)品的各種創(chuàng)新。 這些新的基礎(chǔ)模型現(xiàn)已加入? NVIDIA NeMo 。這個(gè)端到端框架用于構(gòu)建、自定義和部署專為企業(yè)定制的
    的頭像 發(fā)表于 11-17 21:35 ?1140次閱讀
    NVIDIA AI Foundation Models:使用生產(chǎn)就緒型 <b class='flag-5'>LLM</b> 構(gòu)建自定義企業(yè)聊天機(jī)器人和智能副駕

    什么是LLM?LLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領(lǐng)域的研究熱點(diǎn)。LLM以其強(qiáng)大的文本生成、理解和推理能力,在文本
    的頭像 發(fā)表于 07-02 11:45 ?1.2w次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    在本文中,我們將深入探討LLM(Large Language Model,大型語言模型)的應(yīng)用領(lǐng)域。LLM是一種基于深度學(xué)習(xí)的人工智能技術(shù),它能夠理解和生成自然語言文本。近年來,隨著計(jì)算能力的提高
    的頭像 發(fā)表于 07-09 09:52 ?1094次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語言模型)是一種深度學(xué)習(xí)模型,主要用于處理自然語言處理(NLP)任務(wù)。LLM模型的格式多種多樣,以下是一些常見的LLM模型格式
    的頭像 發(fā)表于 07-09 09:59 ?1170次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對LLM大模型推理加速關(guān)鍵技術(shù)的詳細(xì)探討,內(nèi)容將涵蓋模型壓縮、解碼方法優(yōu)化、底層優(yōu)化、分布式并行推理以及特定框架和
    的頭像 發(fā)表于 07-24 11:38 ?1505次閱讀

    LLM和傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能領(lǐng)域,LLM(Large Language Models,大型語言模型)和傳統(tǒng)機(jī)器學(xué)習(xí)是兩種不同的技術(shù)路徑,它們在處理數(shù)據(jù)、模型結(jié)構(gòu)、應(yīng)用場景等方面有著顯著的差異。 1. 模型結(jié)構(gòu)
    的頭像 發(fā)表于 11-08 09:25 ?1582次閱讀

    什么是LLMLLM在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進(jìn)步。其中,大型語言模型(LLM)的出現(xiàn),標(biāo)志著我們對語言理解能力的一次飛躍。LLM通過深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得機(jī)器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?3136次閱讀