一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型應用,必須警惕“速成幻覺”

腦極體 ? 來源: 腦極體 ? 作者: 腦極體 ? 2023-07-26 09:08 ? 次閱讀

我們知道,大模型會編造不正確的答案,產(chǎn)生“幻覺”。

其實,在應用層面,還存在一個更隱蔽的“幻覺”,就是創(chuàng)業(yè)公司忽略了大模型落地所需要的長周期、重基建和工程化難度,帶來的“速成幻覺”。

隨著“百模大戰(zhàn)”拉開序幕,大模型過剩帶來的市場擠壓,也給整個大模型生態(tài)帶來了行業(yè)洗牌的風險。

越來越多的人有了共識,基礎通用大模型競爭激烈,注定是少數(shù)人的游戲。創(chuàng)業(yè)公司隨時可能倒掉,造成項目爛尾。

具備技術、產(chǎn)品和行業(yè)優(yōu)勢的“第一梯隊”大廠,比如百度的文心大模型3.5,已經(jīng)跟國內其他模型拉開了差距,具有了一定的先發(fā)優(yōu)勢和市場打開度,更容易在這場白熱化競爭中生存下來。

既然大模型很難“速成”,那么創(chuàng)業(yè)公司的“幻覺”,又是從何而來的呢?

第一種“幻覺”:開源干翻閉源

創(chuàng)業(yè)公司紛紛入局大模型,給它們勇氣的,不是梁靜茹,而是開源。

以Meta的Llama 2、智譜AI的ChatGLM為代表的開源大模型,陸續(xù)免費并支持授權商用,這無疑是一件好事,讓創(chuàng)業(yè)公司不用重復造輪子,可以用開源大模型作為基座模型,快速開發(fā)出相應的商用版本大模型或大模型應用。

開源的低門檻、低成本,帶來了“開源干翻閉源”的幻覺。

為什么說是幻覺?我們可以從企業(yè)視角為出發(fā)點——即使有了開源模型,想要落地應用大模型,還有哪些必要條件?

一是云基礎設施。

大模型落地需要進一步微調、訓練、運行,要在云平臺上運行。而創(chuàng)業(yè)公司跟OpenAI 、百度等閉源頭部公司的一大差距,就在于缺少跟云平臺的“緊耦合”。

眾所周知,OpenAI有微軟的大力支持,百度文心大模型背后是百度智能云,這些大廠自研大模型,都對云基礎設施的計算硬件集群、資源調度等,進行針對性的協(xié)調優(yōu)化,大模型+AI云的緊密配合,可以更高效地利用計算資源,降低大模型的邊際成本。

wKgaomS_1r6AVOnaAABUJ9i0SDU031.jpg

海外大模型開源社區(qū)的“明星”如Together會為企業(yè)客戶提供開源模型及配套的云平臺,MosaicML也提供Mosaic Cloud 和多云混合服務,國內的開源項目如ChatGLM,也選擇與多家云廠商合作。

可以看到,開源項目跟云平臺的“松耦合”,會受到云平臺的配合度、商業(yè)政策等的影響,一旦后期出現(xiàn)資源漲價、利益分成、研發(fā)意向變化,都會給基于開源的大模型項目帶來商業(yè)化風險。

其次,是二次開發(fā)。

基于開源模型的創(chuàng)業(yè)公司,往往是在底座模型的基礎上做一些微調,靈活有余,但開源模型的分支多、變異快、創(chuàng)新迭代速度快,不承諾任何確定性,一般由程序員自組織來完成開發(fā),這就導致基于開源的大模型穩(wěn)定性不足,對客戶技術團隊二次開發(fā)能力要求很高,選型難度也很大。

目前看,第一梯隊的大廠推出的基礎大模型,更能滿足企業(yè)對大模型穩(wěn)定性、可靠性的需求。

因為閉源大模型,遵循的不是開源范式,而是工程范式,所以,會以保證開發(fā)質量為前提,對用戶需求進行明確的描述,組織工程師按照規(guī)范的開發(fā)流程和周期,以確定的時間和預算,更好的控制開發(fā)質量,保證開發(fā)效率。

開源是一件好事,但開源并不是一把萬能鑰匙。如果不解決基礎設施、二次開發(fā)等瓶頸,創(chuàng)業(yè)公司也無法靠開源,快速取得成功。

第二個“幻覺”:三五個人干翻大廠

因為開源,創(chuàng)業(yè)公司和互聯(lián)網(wǎng)企業(yè)都可以叫賣大模型,這就產(chǎn)生了第二個“幻覺”:三五個人的創(chuàng)業(yè)團隊,就能干翻AI大廠。

需要注意的是,“百模大戰(zhàn)”帶來了白熱化的淘汰賽,同時,大模型還在以周為單位進行迭代。

在激蕩的市場競爭中,具有長期研發(fā)能力和投入意愿的大廠,更容易保持動態(tài)的生長力和持久的話語權,體現(xiàn)在幾個方面:

一是模型本身的技術城池。

谷歌研發(fā)人員此前曾發(fā)文稱,因為開源,谷歌和OpenAI都沒有護城河。這在長期看是對的,但大廠在大模型技術上的領先性,也是現(xiàn)實存在的優(yōu)勢,這個技術代差,足以在大模型的商用周期中,為大廠帶來顯著的競爭優(yōu)勢。

而且,大模型具有數(shù)據(jù)上的“飛輪效應”,更早應用、更多用戶的大廠大模型,會不斷拉大效果差距。比如國內最早推向大眾的文心大模型,其3.5版本已經(jīng)在一些基準測試中,超過了GPT3.5的表現(xiàn),而宣稱達到GPT-3.5的Llama 2剛開源不久,因此目前國產(chǎn)開源大模型最多也就達到GPT-3的水平。

二是持續(xù)迭代的成長能力。

大模型落地不是一蹴而就的,企業(yè)應用大模型也不能上馬后很快不了了之,后續(xù)的算力成本、數(shù)據(jù)工程負擔、每一次迭代的資金壓力,很快就成為困擾很多大模型公司的頭疼問題。

目前,已經(jīng)有不少曾經(jīng)想走商業(yè)閉源路線的大模型創(chuàng)業(yè)公司,直接宣布退出競爭。光年之外中途離場,被美團接手;Hugging Face專注賣算力資源和咨詢業(yè)務,做大模型更多是“面子工程”。部分企業(yè)的表現(xiàn),也會直接影響到市場對其“是否有錢繼續(xù)做大模型”的信心。

從成長性看,有資金實力、基礎設施完整、商業(yè)表現(xiàn)良好的大廠,才能陪企業(yè)用戶走得更遠。

比如“文心一言”3月16日推出以來,在一個月內完成4次迭代,將推理成本降為原來的十分之一,離不開百度在大模型上的長期投入,以及人、錢、卡、基建等多種方面的儲備,才讓文心一言可以持續(xù)進化,在高速迭代的大模型競爭中保持領先。

wKgZomS_1r6AeoMbAACeQFMMP20279.jpg

三是完善的工具鏈。

沒有人會否認,大模型是拿來用的,不是為了當擺設或“公關效應”的。

要用,就要考慮到技術和場景的適配。不同行業(yè)和企業(yè)對于大模型落地的需求,可能是完全不同的,這種差異化,需要更完善、全面的配套工具,來降低應用門檻。舉個例子,行業(yè)+大模型需要進行專有數(shù)據(jù)的清洗、標注、向量化等工作,這個過程是非常復雜的。

三五人的創(chuàng)業(yè)團隊,很難將主要研發(fā)力量,放在開發(fā)這些看上去技術含量不高、但對用戶十分重要的工具上。

這時候,百度等大廠長期押注AI的優(yōu)勢就凸顯出來了,已經(jīng)沉淀了從數(shù)據(jù)集、模型訓練、開發(fā)部署等整套流程的工具,并且開箱即用,把大模型到產(chǎn)業(yè)落地的門檻不斷降低,從而開啟增長飛輪。

四是長期積累的行業(yè)Knowhow。

大模型產(chǎn)業(yè)化,走向ToB和ToG是大勢所趨,要求對行業(yè)Knowhow有深層次的理解。因此,政企客戶在大模型選型時,非??粗貜S商的成功案例和行業(yè)服務經(jīng)驗。

AI大廠在產(chǎn)業(yè)已經(jīng)深耕多年,因此大模型的商業(yè)開發(fā)度更高。目前,百度“文心大模型+飛槳深度學習框架”的組合已與300多家客戶合作,在400多個企業(yè)場景中取得良好測試效果,并打造了10多個行業(yè)大模型。

與之相比,還沒有走通產(chǎn)業(yè)場景的創(chuàng)業(yè)公司,在技術體驗、功能創(chuàng)新、工程能力等細節(jié)上,可能還需要花費更多時間去摸索。

從這些角度看,頭部大模型已經(jīng)建立起了較為明顯的優(yōu)勢,并且還在持續(xù)進化。三五人的創(chuàng)業(yè)公司,想要在高速迭代的大模型競爭中干翻大廠,需要補的課有點多。

第三個“幻覺”:大模型能“賺快錢”

創(chuàng)業(yè)公司通過“資金換規(guī)?!钡亩唐娇鞈?zhàn)略,上市融資再套現(xiàn)離場,來兌現(xiàn)投資回報,已經(jīng)越來越難了,在大模型領域并不現(xiàn)實。那么,另一條路就是通過ToB客戶付費,來完成大模型的商業(yè)化。

眾所周知,ToB行業(yè)要干苦活累活。

企業(yè)客戶在業(yè)務場景中接入大模型,可能帶來一系列復雜的整合動作,是一個體系化工程,這就要求大模型廠商不能單一快節(jié)奏地交付,而要提供解決方案式的整體能力,以及長時間的更新運維服務。

一個項目的交付、運維、迭代、回款等,可能以年計,是無法快進快出的。所以,大模型下沉到行業(yè),必須打消“賺快錢”的念頭,以長期主義的心態(tài)來做生意。

構建服務團隊、形成服務基因,對創(chuàng)業(yè)公司及其背后的投資機構的耐心和定力來說,是不小的考驗。

與之相比,大廠在長期走向ToB/ToG市場的過程中,已經(jīng)經(jīng)歷了客戶的捶打,鍛煉出了更加成熟的服務鐵軍,也證明了自身的定力。

以百度為例,對于不同行業(yè),有深入了解客戶的交付、運維和保障專屬團隊,在大模型落地應用時,能夠給予更具針對性的方案,從而減少無效支出,讓大模型更好地幫助企業(yè)提質增效。

大模型廠商不能一心只想“賺快錢”,要沉下心來走向產(chǎn)業(yè)深處。同樣的,企業(yè)引入大模型也不能一心只“圖便宜”,要從智能化轉型升級的這個生命周期出發(fā)算總賬,綜合考慮改造、交付、運維等多項成本。

大模型強大的理解能力和泛化能力,會加速產(chǎn)業(yè)智能化的進程,也讓AI企業(yè)和創(chuàng)業(yè)公司發(fā)現(xiàn)了新的機會。

就像啤酒總是伴隨著泡沫,在一擁而上的大模型創(chuàng)投熱潮中,創(chuàng)業(yè)公司和企業(yè)客戶也很容易陷入“速成幻覺”。

大模型走向產(chǎn)業(yè)的長路,更需保持冷靜和理性,警惕“爛尾”風險。希望大家真正飲下的,是用時間和技術沉淀的精釀,而非隨時可能消失的“泡沫”。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    33554

    瀏覽量

    274196
  • ChatGPT
    +關注

    關注

    29

    文章

    1584

    瀏覽量

    8661
  • 文心一言
    +關注

    關注

    0

    文章

    129

    瀏覽量

    1593
  • 大模型
    +關注

    關注

    2

    文章

    2941

    瀏覽量

    3683
收藏 人收藏

    評論

    相關推薦

    如何高效訓練AI模型?這些常用工具你必須知道!

    模型的發(fā)展同樣面臨瓶頸,訓練所需的硬件資源日益增加,比如英偉達的芯片、電力等(這也可能是ChatGPT5遲遲沒有出來的原因)。業(yè)界有觀點認為,在大多數(shù)情況下,并不需要全能的大模型,而是更適合專注于
    的頭像 發(fā)表于 04-17 16:43 ?1193次閱讀
    如何高效訓練AI<b class='flag-5'>模型</b>?這些常用工具你<b class='flag-5'>必須</b>知道!

    淺談華為通信大模型的關鍵技術

    推理、幻覺糾正及多維聯(lián)合決策等方面創(chuàng)新成果的肯定。為此,我們將分三期深入解讀華為通信大模型無線的關鍵技術和價值應用,本期聚焦于通信大模型的部署、訓練和推理的關鍵技術。
    的頭像 發(fā)表于 03-26 14:35 ?396次閱讀

    請問如何獲得AD8000的IBIS模型

    當使用 AD8000 設計帶寬為 1000M 的放大器電路時,必須使用 AD8000 的 IBIS 模型進行 SI/PI 仿真。AD8000是否有可用的IBIS型號?如果是這樣,請發(fā)送給我。如果沒有,是否有其他具有類似參數(shù)的芯片提供用于仿真的 IBIS
    發(fā)表于 03-24 06:08

    利用騰訊ima收藏公眾號推文構建個人知識庫,拒絕AI幻覺

    關于SiCMOSFET短路認知誤區(qū)。相信很多同學都遇到過這樣的困擾,在越專業(yè)的細分領域,AI幻覺越嚴重,甚至格式標準、出處明確的學術論文竟然都有可能是編造的。趙工
    的頭像 發(fā)表于 03-19 18:32 ?381次閱讀
    利用騰訊ima收藏公眾號推文構建個人知識庫,拒絕AI<b class='flag-5'>幻覺</b>

    百度發(fā)布文心大模型4.5和文心大模型X1

    文心大模型4.5是百度自主研發(fā)的新一代原生多模態(tài)基礎大模型,通過多個模態(tài)聯(lián)合建模實現(xiàn)協(xié)同優(yōu)化,多模態(tài)理解能力優(yōu)秀;具備更精進的語言能力,理解、生成、邏輯、記憶能力全面提升,去幻覺、邏輯推理、代碼能力顯著提升。
    的頭像 發(fā)表于 03-18 16:29 ?318次閱讀

    維智科技時空大模型助力城市治理智能化轉型

    近期,“AI幻覺”引發(fā)廣泛關注。這一現(xiàn)象指大模型在生成信息時可能基于統(tǒng)計規(guī)律“虛構”不準確內容,例如在回答“周邊咖啡館分布”時編造不存在的地點及營業(yè)信息。
    的頭像 發(fā)表于 03-13 11:42 ?363次閱讀

    DeepSeek大模型如何推動“AI+物流”融合創(chuàng)新

    在人工智能技術的迭代浪潮中,大模型(Large Language Models, LLM)正從文本生成、圖像創(chuàng)作走向垂直行業(yè)賦能。2025年新年,國產(chǎn) AI 大模型 DeepSeek 橫空出世,憑借其低成本、高精度和多模態(tài)能力,迅速成
    的頭像 發(fā)表于 02-28 16:36 ?519次閱讀

    模型遭遇算力墻,探索超級應用的發(fā)展路徑

    的評論透露出 GPT-5 難產(chǎn)的隱憂,直言有限的算力約束讓 OpenAI 面臨迭代優(yōu)先級的艱難抉擇,在通往 AGI 的道路上一路高歌猛進的領頭羊似乎撞上了“算力墻”。 除此之外,能耗、資金,難以根除的幻覺,有限的知識更新速率、有限的上下文寬度、高昂的運營成本等等,都讓外界對大模型
    的頭像 發(fā)表于 02-10 17:24 ?415次閱讀
    大<b class='flag-5'>模型</b>遭遇算力墻,探索超級應用的發(fā)展路徑

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+第一章初體驗

    子發(fā)燒友論壇的專業(yè)活動。 一、大模型的基礎認知 第一章開篇從大模型的本質切入,什么是大模型,指出其核心在于海量數(shù)據(jù)的訓練與參數(shù)規(guī)模的擴展。幻覺問題:生成內容可能存在事實性錯誤或邏輯
    發(fā)表于 02-07 10:42

    名單公布!【書籍評測活動NO.52】基于大模型的RAG應用開發(fā)與優(yōu)化

    (Retrieval-Augmented Agenerated,檢索增強生成)與Agent(AI智能體)。本篇小棗君首先嘗試用通俗易懂的語言幫助大家認識RAG這一重要應用形式。 01 了解大模型的“幻覺” 在了解為什么出現(xiàn)RAG之前
    發(fā)表于 12-04 10:50

    李彥宏:大模型行業(yè)消除幻覺,iRAG技術引領文生圖新紀元

    在近日舉辦的百度世界大會上,百度創(chuàng)始人李彥宏分享了關于大模型行業(yè)的最新觀察。他指出,過去24個月里,大模型行業(yè)經(jīng)歷了顯著的變化,其中最引人注目的是大模型已基本消除了幻覺現(xiàn)象。這一進步標
    的頭像 發(fā)表于 11-14 11:39 ?531次閱讀

    TaD+RAG-緩解大模型幻覺”的組合新療法

    TaD:任務感知解碼技術(Task-aware Decoding,簡稱TaD),京東聯(lián)合清華大學針對大語言模型幻覺問題提出的一項技術,成果收錄于IJCAI2024。 RAG:檢索增強生成技術
    的頭像 發(fā)表于 07-16 15:01 ?2539次閱讀
    TaD+RAG-緩解大<b class='flag-5'>模型</b>“<b class='flag-5'>幻覺</b>”的組合新療法

    阿里達摩院提出“知識鏈”框架,降低大模型幻覺

    近日,阿里巴巴達摩院(湖畔實驗室)攜手新加坡南洋理工大學等研究機構,共同推出了大模型知識鏈(CoK)框架。該框架不僅可實時檢索異構知識源,還能逐步糾正推理錯誤,有效提高了大模型在回答知識型問題時的準確率,并顯著降低了所謂的“幻覺
    的頭像 發(fā)表于 05-10 11:46 ?866次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    幻覺”。此外,大語言模型僅限于生成文字,無法獨立調用API以滿足多樣化需求。例如,當詢問“查詢今天的天氣”時,它會拒絕請求,缺乏根據(jù)環(huán)境反饋調整行為的能力。動態(tài)調整行為及克服“幻覺”現(xiàn)象是大語言
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    進行損失計算,得到下一個目標的預測。也會設計一些其他輔助訓練任務,與主任務共同訓練。選擇合適的預訓練數(shù)據(jù)是確保模型性能和泛化能力的關鍵,通過對預訓練數(shù)據(jù)進行混合配比,以確保能夠獲得全面均衡的訓練。 預訓練遇到的主要問題涉及訓練穩(wěn)定性的問題,思維練如何出現(xiàn)幻覺現(xiàn)象,處理更
    發(fā)表于 05-07 17:10