一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖解BERT預訓練模型!

深度學習自然語言處理 ? 來源:Datawhale ? 作者:張賢 ? 2020-11-24 10:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、前言

2018 年是機器學習模型處理文本(或者更準確地說,自然語言處理或 NLP)的轉(zhuǎn)折點。我們對這些方面的理解正在迅速發(fā)展:如何最好地表示單詞和句子,從而最好地捕捉基本語義和關(guān)系?此外,NLP 社區(qū)已經(jīng)發(fā)布了非常強大的組件,你可以免費下載,并在自己的模型和 pipeline 中使用(今年可以說是 NLP 的 ImageNet 時刻,這句話指的是多年前類似的發(fā)展也加速了 機器學習在計算機視覺任務中的應用)。

ULM-FiT 與 Cookie Monster(餅干怪獸)無關(guān)。但我想不出別的了...

BERT的發(fā)布是這個領(lǐng)域發(fā)展的最新的里程碑之一,這個事件標志著NLP 新時代的開始。BERT模型打破了基于語言處理的任務的幾個記錄。在 BERT 的論文發(fā)布后不久,這個團隊還公開了模型的代碼,并提供了模型的下載版本,這些模型已經(jīng)在大規(guī)模數(shù)據(jù)集上進行了預訓練。這是一個重大的發(fā)展,因為它使得任何一個構(gòu)建構(gòu)建機器學習模型來處理語言的人,都可以將這個強大的功能作為一個現(xiàn)成的組件來使用,從而節(jié)省了從零開始訓練語言處理模型所需要的時間、精力、知識和資源。

BERT 開發(fā)的兩個步驟:第 1 步,你可以下載預訓練好的模型(這個模型是在無標注的數(shù)據(jù)上訓練的)。然后在第 2 步只需要關(guān)心模型微調(diào)即可。

你需要注意一些事情,才能理解 BERT 是什么。因此,在介紹模型本身涉及的概念之前,讓我們先看看如何使用 BERT。

二、示例:句子分類

使用 BERT 最直接的方法就是對一個句子進行分類。這個模型如下所示:

為了訓練這樣一個模型,你主要需要訓練分類器(上圖中的 Classifier),在訓練過程中 幾乎不用改動BERT模型。這個訓練過程稱為微調(diào),它起源于Semi-supervised Sequence Learning 和 ULMFiT。

由于我們在討論分類器,這屬于機器學習的監(jiān)督學習領(lǐng)域。這意味著我們需要一個帶有標簽的數(shù)據(jù)集來訓練這樣一個模型。例如,在下面這個垃圾郵件分類器的例子中,帶有標簽的數(shù)據(jù)集包括一個郵件內(nèi)容列表和對應的標簽(每個郵件是“垃圾郵件”或者“非垃圾郵件”)。

其他一些例子包括:

1)語義分析

輸入:電影或者產(chǎn)品的評價。輸出:判斷這個評價是正面的還是負面的。

數(shù)據(jù)集示例:SST (https://nlp.stanford.edu/sentiment)

2)Fact-checking

輸入:一個句子。輸出:這個句子是不是一個斷言

參考視頻:https://www.youtube.com/watch?v=ddf0lgPCoSo

三、模型架構(gòu)

現(xiàn)在你已經(jīng)通過上面的例子,了解了如何使用 BERT,接下來讓我們更深入地了解一下它的工作原理

論文里介紹了兩種不同模型大小的 BERT:

BERT BASE - 與 OpenAI 的 Transformer 大小相當,以便比較性能

BERT LARGE - 一個非常巨大的模型,它取得了最先進的結(jié)果

BERT 基本上是一個訓練好的 Transformer 的 decoder 的棧。關(guān)于 Transformer 的介紹,可以閱讀之前的文章《 圖解Transformer(完整版)!》,這里主要介紹 Transformer 模型,這是 BERT 中的一個基本概念。此外,我們還會介紹其他一些概念。

2 種不同大小規(guī)模的 BERT 模型都有大量的 Encoder 層(論文里把這些層稱為 Transformer Blocks)- BASE 版本由 12 層 Encoder,Large 版本有 20 層 Encoder。同時,這些 BERT 模型也有更大的前饋神經(jīng)網(wǎng)絡(分別有 768 個和 1024 個隱藏層單元)和更多的 attention heads(分別有 12 個和 16 個),超過了原始 Transformer 論文中的默認配置參數(shù)(原論文中有 6 個 Encoder 層, 512 個隱藏層單元和 8 個 attention heads)。

四、模型輸入

第一個輸入的 token 是特殊的 [CLS],它 的含義是分類(class的縮寫)。

就像 Transformer 中普通的 Encoder 一樣,BERT 將一串單詞作為輸入,這些單詞在 Encoder 的棧中不斷向上流動。每一層都會經(jīng)過 Self Attention 層,并通過一個前饋神經(jīng)網(wǎng)絡,然后將結(jié)果傳給下一個 Encoder。

在模型架構(gòu)方面,到目前為止,和 Transformer 是相同的(除了模型大小,因為這是我們可以改變的參數(shù))。我們會在下面看到,BERT 和 Transformer 在模型的輸出上有一些不同。

五、模型輸出

每個位置輸出一個大小為 hidden_size(在 BERT Base 中是 768)的向量。對于上面提到的句子分類的例子,我們只關(guān)注第一個位置的輸出(輸入是 [CLS] 的那個位置)。

這個輸出的向量現(xiàn)在可以作為后面分類器的輸入。論文里用單層神經(jīng)網(wǎng)絡作為分類器,取得了很好的效果。

如果你有更多標簽(例如你是一個電子郵件服務,需要將郵件標記為 “垃圾郵件”、“非垃圾郵件”、“社交”、“推廣”),你只需要調(diào)整分類器的神經(jīng)網(wǎng)絡,增加輸出的神經(jīng)元個數(shù),然后經(jīng)過 softmax 即可。

六、與卷積神經(jīng)網(wǎng)絡進行對比

對于那些有計算機視覺背景的人來說,這個向量傳遞過程,會讓人聯(lián)想到 VGGNet 等網(wǎng)絡的卷積部分,和網(wǎng)絡最后的全連接分類部分之間的過程。

七、詞嵌入(Embedding)的新時代

上面提到的這些新發(fā)展帶來了文本編碼方式的新轉(zhuǎn)變。到目前為止,詞嵌入一直是 NLP 模型處理語言的主要表示方法。像 Word2Vec 和 Glove 這樣的方法已經(jīng)被廣泛應用于此類任務。在我們討論新的方法之前,讓我們回顧一下它們是如何應用的。

7.1 回顧詞嵌入

單詞不能直接輸入機器學習模型,而需要某種數(shù)值表示形式,以便模型能夠在計算中使用。通過 Word2Vec,我們可以使用一個向量(一組數(shù)字)來恰當?shù)乇硎締卧~,并捕捉單詞的語義以及單詞和單詞之間的關(guān)系(例如,判斷單詞是否相似或者相反,或者像 "Stockholm" 和 "Sweden" 這樣的一對詞,與 "Cairo" 和 "Egypt"這一對詞,是否有同樣的關(guān)系)以及句法、語法關(guān)系(例如,"had" 和 "has" 之間的關(guān)系與 "was" 和 "is" 之間的關(guān)系相同)。

人們很快意識到,相比于在小規(guī)模數(shù)據(jù)集上和模型一起訓練詞嵌入,更好的一種做法是,在大規(guī)模文本數(shù)據(jù)上預訓練好詞嵌入,然后拿來使用。因此,我們可以下載由 Word2Vec 和 GloVe 預訓練好的單詞列表,及其詞嵌入。下面是單詞 "stick" 的 Glove 詞嵌入向量的例子(詞嵌入向量長度是 200)。

單詞 "stick" 的 Glove 詞嵌入 - 一個由200個浮點數(shù)組成的向量(四舍五入到小數(shù)點后兩位)。

由于這些向量都很長,且全部是數(shù)字,所以在文章中我使用以下基本形狀來表示向量:

7.2 ELMo:語境問題

如果我們使用 Glove 的詞嵌入表示方法,那么不管上下文是什么,單詞 "stick" 都只表示為同一個向量。一些研究人員指出,像 "stick" 這樣的詞有多種含義。為什么不能根據(jù)它使用的上下文來學習對應的詞嵌入呢?這樣既能捕捉單詞的語義信息,又能捕捉上下文的語義信息。于是,語境化的詞嵌入模型應運而生。

語境化的詞嵌入,可以根據(jù)單詞在句子語境中的含義,賦予不同的詞嵌入。你可以查看這個視頻 RIP Robin Williams(https://zhuanlan.zhihu.com/RIP Robin Williams)

ELMo 沒有對每個單詞使用固定的詞嵌入,而是在為每個詞分配詞嵌入之前,查看整個句子,融合上下文信息。它使用在特定任務上經(jīng)過訓練的雙向 LSTM 來創(chuàng)建這些詞嵌入。

ELMo 在語境化的預訓練這條道路上邁出了重要的一步。ELMo LSTM 會在一個大規(guī)模的數(shù)據(jù)集上進行訓練,然后我們可以將它作為其他語言處理模型的一個部分,來處理自然語言任務。

那么 ELMo 的秘密是什么呢?

ELMo 通過訓練,預測單詞序列中的下一個詞,從而獲得了語言理解能力,這項任務被稱為語言建模。要實現(xiàn) ELMo 很方便,因為我們有大量文本數(shù)據(jù),模型可以從這些數(shù)據(jù)中學習,而不需要額外的標簽。

ELMo 預訓練過程的其中一個步驟:以 "Let’s stick to" 作為輸入,預測下一個最有可能的單詞。這是一個語言建模任務。當我們在大規(guī)模數(shù)據(jù)集上訓練時,模型開始學習語言的模式。例如,在 "hang" 這樣的詞之后,模型將會賦予 "out" 更高的概率(因為 "hang out" 是一個詞組),而不是 "camera"。

在上圖中,我們可以看到 ELMo 頭部上方展示了 LSTM 的每一步的隱藏層狀態(tài)向量。在這個預訓練過程完成后,這些隱藏層狀態(tài)在詞嵌入過程中派上用場。

ELMo 通過將隱藏層狀態(tài)(以及初始化的詞嵌入)以某種方式(向量拼接之后加權(quán)求和)結(jié)合在一起,實現(xiàn)了帶有語境化的詞嵌入。

7.3 ULM-FiT:NLP 領(lǐng)域的遷移學習

ULM-FiT 提出了一些方法來有效地利用模型在預訓練期間學習到的東西 - 這些東西不僅僅是詞嵌入,還有語境化的詞嵌入。ULM-FiT 提出了一個語言模型和一套流程,可以有效地為各種任務微調(diào)這個語言模型。

現(xiàn)在,NLP 可能終于找到了好的方法,可以像計算機視覺那樣進行遷移學習了。

7.4 Transformer:超越 LSTM

Transformer 論文和代碼的發(fā)布,以及它在機器翻譯等任務上取得的成果,開始讓人們認為它是 LSTM 的替代品。這是因為 Transformer 可以比 LSTM 更好地處理長期依賴。

Transformer 的 Encoder-Decoder 結(jié)構(gòu)使得它非常適合機器翻譯。但你怎么才能用它來做文本分類呢?你怎么才能使用它來預訓練一個語言模型,并能夠在其他任務上進行微調(diào)(下游任務是指那些能夠利用預訓練模型的監(jiān)督學習任務)?

7.5 OpenAI Transformer:預訓練一個 Transformer Decoder 來進行語言建模

事實證明,我們不需要一個完整的 Transformer 來進行遷移學習和微調(diào)。我們只需要 Transformer 的 Decoder 就可以了。Decoder 是一個很好的選擇,用它來做語言建模(預測下一個詞)是很自然的,因為它可以屏蔽后來的詞 。當你使用它進行逐詞翻譯時,這是個很有用的特性。

OpenAI Transformer 是由 Transformer 的 Decoder 堆疊而成的

這個模型包括 12 個 Decoder 層。因為在這種設計中沒有 Encoder,這些 Decoder 層不會像普通的 Transformer 中的 Decoder 層那樣有 Encoder-Decoder Attention 子層。不過,它仍然會有 Self Attention 層(這些層使用了 mask,因此不會看到句子后來的 token)。

有了這個結(jié)構(gòu),我們可以繼續(xù)在同樣的語言建模任務上訓練這個模型:使用大規(guī)模未標記的數(shù)據(jù)來預測下一個詞。只需要把 7000 本書的文字扔給模型 ,然后讓它學習。書籍非常適合這種任務,因為書籍的數(shù)據(jù)可以使得模型學習到相關(guān)聯(lián)的信息。如果你使用 tweets 或者文章來訓練,模型是得不到這些信息的。

上圖表示:OpenAI Transformer 在 7000 本書的組成的數(shù)據(jù)集中預測下一個單詞。

7.6 下游任務的遷移學習

現(xiàn)在,OpenAI Transformer 已經(jīng)經(jīng)過了預訓練,它的網(wǎng)絡層經(jīng)過調(diào)整,可以很好地處理文本語言,我們可以開始使用它來處理下游任務。讓我們先看下句子分類任務(把電子郵件分類為 ”垃圾郵件“ 或者 ”非垃圾郵件“):

OpenAI 的論文列出了一些列輸入變換方法,來處理不同任務類型的輸入。下面這張圖片來源于論文,展示了執(zhí)行不同任務的模型結(jié)構(gòu)和對應輸入變換。這些都是非常很巧妙的做法。

八、BERT:從 Decoder 到 Encoder

OpenAI Transformer 為我們提供了一個基于 Transformer 的可以微調(diào)的預訓練網(wǎng)絡。但是在把 LSTM 換成 Transformer 的過程中,有些東西丟失了。ELMo 的語言模型是雙向的,但 OpenAI Transformer 只訓練了一個前向的語言模型。我們是否可以構(gòu)建一個基于 Transformer 的語言模型,它既向前看,又向后看(用技術(shù)術(shù)語來說 - 融合上文和下文的信息)。

8.1 Masked Language Model(MLM 語言模型)

那么如何才能像 LSTM 那樣,融合上文和下文的雙向信息呢?

一種直觀的想法是使用 Transformer 的 Encoder。但是 Encoder 的 Self Attention 層,每個 token 會把大部分注意力集中到自己身上,那么這樣將容易預測到每個 token,模型學不到有用的信息。BERT 提出使用 mask,把需要預測的詞屏蔽掉。

下面這段風趣的對話是博客原文的。

BERT 說,“我們要用 Transformer 的 Encoder”。

Ernie 說,”這沒什么用,因為每個 token 都會在多層的雙向上下文中看到自己“。

BERT 自信地說,”我們會使用 mask“。

BERT 在語言建模任務中,巧妙地屏蔽了輸入中 15% 的單詞,并讓模型預測這些屏蔽位置的單詞。

找到合適的任務來訓練一個 Transformer 的 Encoder 是一個復雜的問題,BERT 通過使用早期文獻中的 "masked language model" 概念(在這里被稱為完形填空)來解決這個問題。

除了屏蔽輸入中 15% 的單詞外, BERT 還混合使用了其他的一些技巧,來改進模型的微調(diào)方式。例如,有時它會隨機地用一個詞替換另一個詞,然后讓模型預測這個位置原來的實際單詞。

8.2 兩個句子的任務

如果你回顧 OpenAI Transformer 在處理不同任務時所做的輸入變換,你會注意到有些任務需要模型對兩個句子的信息做一些處理(例如,判斷它們是不是同一句話的不同解釋。將一個維基百科條目作為輸入,再將一個相關(guān)的問題作為另一個輸入,模型判斷是否可以回答這個問題)。

為了讓 BERT 更好地處理多個句子之間的關(guān)系,預訓練過程還包括一個額外的任務:給出兩個句子(A 和 B),判斷 B 是否是 A 后面的相鄰句子。

BERT 預訓練的第 2 個任務是兩個句子的分類任務。在上圖中,tokenization 這一步被簡化了,因為 BERT 實際上使用了 WordPieces 作為 token,而不是使用單詞本身。在 WordPiece 中,有些詞會被拆分成更小的部分。

8.3 BERT 在不同任務上的應用

BERT 的論文展示了 BERT 在多種任務上的應用。

8.4 將 BERT 用于特征提取

使用 BERT 并不是只有微調(diào)這一種方法。就像 ELMo 一樣,你可以使用預訓練的 BERT 來創(chuàng)建語境化的詞嵌入。然后你可以把這些詞嵌入用到你現(xiàn)有的模型中。論文里也提到,這種方法在命名實體識別任務中的效果,接近于微調(diào) BERT 模型的效果。

那么哪種向量最適合作為上下文詞嵌入?我認為這取決于任務。論文里驗證了 6 種選擇(與微調(diào)后的 96.4 分的模型相比):

8.5 如何使用 BERT

嘗試 BERT 的最佳方式是通過托管在 Google Colab 上的BERT FineTuning with Cloud TPUs。如果你之前從來沒有使用過 Cloud TPU,那這也是一個很好的嘗試開端,因為 BERT 代碼可以運行在 TPU、CPUGPU。

下一步是查看BERT 倉庫中的代碼:

模型是在modeling.py(class BertModel)中定義的,和普通的 Transformer encoder 完全相同。

run_classifier.py是微調(diào)網(wǎng)絡的一個示例。它還構(gòu)建了監(jiān)督模型分類層。如果你想構(gòu)建自己的分類器,請查看這個文件中的 create_model() 方法。

可以下載一些預訓練好的模型。這些模型包括 BERT Base、BERT Large,以及英語、中文和包括 102 種語言的多語言模型,這些模型都是在維基百科的數(shù)據(jù)上進行訓練的。

BERT 不會將單詞作為 token。相反,它關(guān)注的是 WordPiece。tokenization.py就是 tokenizer,它會將你的單詞轉(zhuǎn)換為適合 BERT 的 wordPiece。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134635
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14164
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22625

原文標題:【NLP專欄】圖解 BERT 預訓練模型!

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    用PaddleNLP為GPT-2模型制作FineWeb二進制訓練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實踐大模型訓練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進一步講解更多的技術(shù)細節(jié)。本文主要針對大語言模型
    的頭像 發(fā)表于 03-21 18:24 ?1684次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進制<b class='flag-5'>預</b><b class='flag-5'>訓練</b>數(shù)據(jù)集

    訓練好的ai模型導入cubemx不成功怎么處理?

    訓練好的ai模型導入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    從Open Model Zoo下載的FastSeg大型公共訓練模型,無法導入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共訓練模型。 運行 converter.py 以將 FastSeg 大型模型轉(zhuǎn)換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    用PaddleNLP在4060單卡上實踐大模型訓練技術(shù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開始訓練一個大語言模型需要投資多少錢》,其中高昂的訓練費用讓許多對大模型
    的頭像 發(fā)表于 02-19 16:10 ?999次閱讀
    用PaddleNLP在4060單卡上實踐大<b class='flag-5'>模型</b><b class='flag-5'>預</b><b class='flag-5'>訓練</b>技術(shù)

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    今天學習<基于大模型的RAG應用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學習領(lǐng)域中的一項關(guān)鍵技術(shù),它指的是在已經(jīng)訓練好的大型深度學習模型
    發(fā)表于 01-14 16:51

    KerasHub統(tǒng)一、全面的訓練模型

    深度學習領(lǐng)域正在迅速發(fā)展,在處理各種類型的任務中,訓練模型變得越來越重要。Keras 以其用戶友好型 API 和對易用性的重視而聞名,始終處于這一動向的前沿。Keras 擁有專用的內(nèi)容庫,如用
    的頭像 發(fā)表于 12-20 10:32 ?501次閱讀

    GPU是如何訓練AI大模型

    在AI模型訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何訓練AI大模型的。
    的頭像 發(fā)表于 12-19 17:54 ?750次閱讀

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應用大模型

    訓練模型BERT、GPT等。這些模型在理解自然語言、生成文本、處理對話等方面具有不同的能力。因此,在選擇模型時,需要了解每個
    發(fā)表于 12-17 16:53

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型是一個簡稱,完整的叫法,應該是“人工智能訓練模型”。
    的頭像 發(fā)表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓練</b>出來的及大<b class='flag-5'>模型</b>作用

    寫給小白的大模型入門科普

    什么是大模型?大模型,英文名叫LargeModel,大型模型。早期的時候,也叫FoundationModel,基礎(chǔ)模型。大模型是一個簡稱。完
    的頭像 發(fā)表于 11-23 01:06 ?707次閱讀
    寫給小白的大<b class='flag-5'>模型</b>入門科普

    如何訓練自己的LLM模型

    訓練自己的大型語言模型(LLM)是一個復雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標和需求 : 確定你的L
    的頭像 發(fā)表于 11-08 09:30 ?1528次閱讀

    AI大模型訓練數(shù)據(jù)來源分析

    AI大模型訓練數(shù)據(jù)來源廣泛且多元化,這些數(shù)據(jù)源對于構(gòu)建和優(yōu)化AI模型至關(guān)重要。以下是對AI大模型訓練數(shù)據(jù)來源的分析: 一、公開數(shù)據(jù)集 公開
    的頭像 發(fā)表于 10-23 15:32 ?3689次閱讀

    如何訓練自己的AI大模型

    訓練自己的AI大模型是一個復雜且耗時的過程,涉及多個關(guān)鍵步驟。以下是一個詳細的訓練流程: 一、明確需求和目標 首先,需要明確自己的需求和目標。不同的任務和應用領(lǐng)域需要不同類型的AI模型
    的頭像 發(fā)表于 10-23 15:07 ?4995次閱讀

    直播預約 |數(shù)據(jù)智能系列講座第4期:訓練的基礎(chǔ)模型下的持續(xù)學習

    鷺島論壇數(shù)據(jù)智能系列講座第4期「訓練的基礎(chǔ)模型下的持續(xù)學習」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學術(shù)盛宴!|直播信息報告題目
    的頭像 發(fā)表于 10-18 08:09 ?598次閱讀
    直播預約 |數(shù)據(jù)智能系列講座第4期:<b class='flag-5'>預</b><b class='flag-5'>訓練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學習

    蘋果揭示AI新動向:Apple Intelligence模型在谷歌云端芯片上訓練

    蘋果公司在最新的技術(shù)論文中披露了一項重要信息,其全新的人工智能系統(tǒng)Apple Intelligence所依賴的模型并非傳統(tǒng)上大型科技公司首選的NVIDIA GPU,而是選擇了在谷歌設計的云端芯片上進行訓練。這一決定不僅打破了行
    的頭像 發(fā)表于 07-30 15:00 ?851次閱讀