一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌 | 大規(guī)模深度推薦模型的特征嵌入問題有解了!

WpOh_rgznai100 ? 來源:YXQ ? 2019-07-16 13:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀:本文主要介紹下Google在大規(guī)模深度推薦模型上關(guān)于特征嵌入的最新論文。

一、背景

大部分的深度學(xué)習(xí)模型主要包含如下的兩大模塊:輸入模塊以及表示學(xué)習(xí)模塊。自從NAS[1]的出現(xiàn)以來,神經(jīng)網(wǎng)絡(luò)架構(gòu)的設(shè)計上正在往數(shù)據(jù)驅(qū)動的自動機(jī)器學(xué)習(xí)方向演進(jìn)。不過之前更多的研究都是聚焦在如何自動設(shè)計表示學(xué)習(xí)模塊而不是輸入模塊,主要原因是在計算機(jī)視覺等成熟領(lǐng)域原始輸入(圖像像素)已經(jīng)是浮點數(shù)了。

輸入模塊:負(fù)責(zé)將原始輸入轉(zhuǎn)換為浮點數(shù);表示學(xué)習(xí)模塊:根據(jù)輸入模塊的浮點值,計算得到模型的最終輸出;

而在推薦、搜索以及廣告工業(yè)界的大規(guī)模深度模型上,情況卻完全不同。因為包含大量高維稀疏的離散特征(譬如商品id,視頻id或者文章id)需要將這些類別特征通過embedding嵌入技術(shù)將離散的id轉(zhuǎn)換為連續(xù)的向量。而這些向量的維度大小往往被當(dāng)做一個超參手動進(jìn)行設(shè)定。

一個簡單的數(shù)據(jù)分析就能告訴我們嵌入向量維度設(shè)定的合理與否非常影響模型的效果。以YoutubeDNN[2]為例,其中使用到的VideoId的特征詞典大小是100萬,每一個特征值嵌入向量大小是256。僅僅一個VideoId的特征就包含了2.56億的超參,考慮到其他更多的離散類特征輸入模塊的需要學(xué)習(xí)的超參數(shù)量可想而知。相應(yīng)地,表示學(xué)習(xí)模塊主要包含三層全連接層。也就是說大部分的超參其實聚集在了輸入模塊,那自然就會對模型的效果有著舉足輕重的影響。

二、主要工作

Google的研究者們在最新的一篇論文[3]中提出了NIS技術(shù)(Neural Input Search),可以自動學(xué)習(xí)大規(guī)模深度推薦模型中每個類別特征最優(yōu)化的詞典大小以及嵌入向量維度大小。目的就是為了在節(jié)省性能的同時盡可能地最大化深度模型的效果。

并且,他們發(fā)現(xiàn)傳統(tǒng)的Single-size Embedding方式(所有特征值共享同樣的嵌入向量維度)其實并不能夠讓模型充分學(xué)習(xí)訓(xùn)練數(shù)據(jù)。因此與之對應(yīng)地,提出了Multi-size Embedding方式讓不同的特征值可以擁有不同的嵌入向量維度。

在實際訓(xùn)練中,他們使用強(qiáng)化學(xué)習(xí)來尋找每個特征值最優(yōu)化的詞典大小和嵌入向量維度。通過在兩大大規(guī)模推薦問題(檢索、排序)上的實驗驗證,NIS技術(shù)能夠自動學(xué)習(xí)到更優(yōu)化的特征詞典大小和嵌入維度并且?guī)碓赗ecall@1以及AUC等指標(biāo)上的顯著提升。

三、Neural Input Search問題

NIS-SE問題:SE(Single-size Embedding)方式是目前常用的特征嵌入方式,所有特征值共享同樣的特征嵌入維度。NIS-SE問題就是在給定資源條件下,對于每個離散特征找到最優(yōu)化的詞典大小v和嵌入向量維度d。

這里面其實包含了兩部分的trade-off:一方面是各特征之間,更有用的特征應(yīng)該給予更多的資源;另一方面是每個特征內(nèi)部,詞典大小和嵌入向量維度之間。對于一個特征來說,更大的詞典可以有更大的覆蓋度,包含更多長尾的item;更多的嵌入向量維度則可以提升head item的嵌入質(zhì)量,因為head item擁有充分的訓(xùn)練數(shù)據(jù)。而SE在資源限制下無法同時做到高覆蓋度和高質(zhì)量的特征嵌入。所以需要引入ME(Multi-size Embedding)。

NIS-ME問題:ME允許每個特征詞典內(nèi)不同的特征值可以有不同的嵌入向量維度。其實就是為了實現(xiàn)越頻繁的特征值擁有更大的嵌入特征維度,因為有更多的訓(xùn)練數(shù)據(jù);而長尾的特征值則用更小的嵌入特征維度。引入ME為每一個類別離散特征找到最優(yōu)化的詞典大小和嵌入向量維度,就可以實現(xiàn)在長尾特征值上的高覆蓋度以及在頻繁特征值上的高質(zhì)量嵌入向量。下圖給出了embedding使用的場景例子中,SE和ME使用上的區(qū)別。

四、NIS解決方案

要想為每個類別離散特征手動找到最優(yōu)化的詞典大小和嵌入向量維度是很難的,因為推薦廣告工業(yè)界的大規(guī)模深度模型的訓(xùn)練時很昂貴的。為了達(dá)到在一次訓(xùn)練中就能自動找到最優(yōu)化的詞典大小和嵌入向量維度,他們改造了經(jīng)典的ENAS[4]:

首先針對深度模型的輸入模塊提出了一個新穎的搜索空間;

然后有一個單獨的Controller針對每一個離散特征選擇SE或者M(jìn)E;

其次可以根據(jù)Controller決策后考慮模型準(zhǔn)確度和資源消耗計算得到reward;

最后可以根據(jù)reward使用強(qiáng)化學(xué)習(xí)A3C[5]訓(xùn)練Controller進(jìn)行迭代。

搜索空間

Embedding Block的概念實際上就是原始Embedding矩陣的分塊。如下圖所示,假設(shè)原始Embedding矩陣大小是(10M,256),圖a將其分成了20個Embedding Block。Controller為每個特征有兩種選擇:圖b所示的SE以及圖c的所示的ME。

Reward函數(shù)

主模型是隨著Controller的選擇進(jìn)行訓(xùn)練的,因此Controller的參數(shù)實際上是根據(jù)在驗證集上前向計算的reward通過RL追求收益最大化而來??紤]到在限定資源下的深度模型訓(xùn)練,這里的reward函數(shù)設(shè)計為同時考慮業(yè)務(wù)目標(biāo)與資源消耗。對于推薦領(lǐng)域的兩大主要任務(wù):信息檢索和排序,信息檢索的目標(biāo)可以使用Sampled Recall@1;而排序的目標(biāo)則可以使用AUC。

五、實驗結(jié)果

他們在兩大大規(guī)模推薦模型問題:檢索和排序上進(jìn)行了實驗。在同等資源消耗的情況下,NIS可以獲得顯著提升,詳細(xì)數(shù)據(jù)如下圖所示。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108158

原文標(biāo)題:Google最新論文:大規(guī)模深度推薦模型的特征嵌入問題有解了!

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI原生架構(gòu)升級:RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的算力突破

    近年來,隨著千億級參數(shù)模型的崛起,AI訓(xùn)練對算力的需求呈現(xiàn)指數(shù)級增長。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對分布式訓(xùn)練、高并發(fā)計算和顯存優(yōu)化等場景時逐漸顯露瓶頸。而RAKsmart為超大規(guī)模模型訓(xùn)練提供了全新的算力解決方案。
    的頭像 發(fā)表于 04-24 09:27 ?301次閱讀

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶開放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項。 ? 在核心亮點層面,Ironwood 堪稱谷歌首款專門為 AI 推理精心設(shè)計的 TPU 芯片,能夠有力支持大規(guī)模思考
    的頭像 發(fā)表于 04-12 00:57 ?2444次閱讀

    模型領(lǐng)域常用名詞解釋(近100個)

    的分類進(jìn)行了整理,以下供參考:模型架構(gòu)與基礎(chǔ)概念大語言模型(LLM,LargeLanguageModel):一種基于深度學(xué)習(xí)的大規(guī)模神經(jīng)網(wǎng)絡(luò)模型
    的頭像 發(fā)表于 02-19 11:49 ?790次閱讀
    大<b class='flag-5'>模型</b>領(lǐng)域常用名詞解釋(近100個)

    淺談適用規(guī)模充電站的深度學(xué)習(xí)有序充電策略

    深度強(qiáng)化學(xué)習(xí)能夠有效計及電動汽車出行模式和充電需求的不確定性,實現(xiàn)充電場站充電成本化的目標(biāo)。通過對電動汽車泊車時間和充電需求特征進(jìn)行提取,建立適用于大規(guī)模電動汽車有序充電的馬爾可夫決策過程模型
    的頭像 發(fā)表于 02-08 15:00 ?541次閱讀
    淺談適用<b class='flag-5'>規(guī)模</b>充電站的<b class='flag-5'>深度</b>學(xué)習(xí)有序充電策略

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術(shù)解讀

    微調(diào):通過在預(yù)訓(xùn)練模型中插入適配器模塊來適應(yīng)特定任務(wù),既保留了原始模型的性能,又能快速適應(yīng)新任務(wù)。Prefix-Tuning:通過在輸入序列的前面添加特定前綴來微調(diào)模型,不需要對模型進(jìn)
    發(fā)表于 01-14 16:51

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    介紹了如何使用分類任務(wù)進(jìn)行手寫數(shù)字的分類。相信大家腦海中可能會產(chǎn)生如下疑問: 數(shù)據(jù)依賴性強(qiáng):分類模型的表現(xiàn)通常依賴于大量的標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練。獲取高質(zhì)量、大規(guī)模的數(shù)據(jù)集既耗時又昂貴。 泛化能力有限:模型
    發(fā)表于 12-19 14:33

    谷歌發(fā)布“深度研究”AI工具,利用Gemini模型進(jìn)行網(wǎng)絡(luò)信息檢索

    據(jù)外媒最新報道,谷歌近期發(fā)布了一款名為“深度研究”的先進(jìn)AI工具。這款工具借助其內(nèi)部的Gemini大型語言模型,實現(xiàn)了對網(wǎng)絡(luò)信息的高效檢索與深度挖掘,進(jìn)一步滿足了用戶對精準(zhǔn)、詳盡信息的
    的頭像 發(fā)表于 12-16 09:35 ?727次閱讀

    Kaggle知識點:使用大模型進(jìn)行特征篩選

    數(shù)據(jù)科學(xué)數(shù)據(jù)挖掘的核心是是對海量數(shù)據(jù)進(jìn)行有效的篩選和分析。傳統(tǒng)上數(shù)據(jù)篩選依賴于數(shù)據(jù)驅(qū)動的方法,如包裹式、過濾式和嵌入式篩選。隨著大模型的發(fā)展,本文將探討如何利用大模型進(jìn)行特征篩選。篩選
    的頭像 發(fā)表于 12-03 01:06 ?1726次閱讀
    Kaggle知識點:使用大<b class='flag-5'>模型</b>進(jìn)行<b class='flag-5'>特征</b>篩選

    NVIDIA與谷歌量子AI部門達(dá)成合作

    NVIDIA CUDA-Q 平臺使谷歌量子 AI 研究人員能夠為其量子計算機(jī)創(chuàng)建大規(guī)模的數(shù)字模型,以解決設(shè)計中面臨的各種挑戰(zhàn)
    的頭像 發(fā)表于 11-20 09:39 ?708次閱讀

    使用EMBark進(jìn)行大規(guī)模推薦系統(tǒng)訓(xùn)練Embedding加速

    推薦系統(tǒng)是互聯(lián)網(wǎng)行業(yè)的核心系統(tǒng),如何高效訓(xùn)練推薦系統(tǒng)是各公司關(guān)注的核心問題。目前,推薦系統(tǒng)基本上都是基于深度學(xué)習(xí)的大規(guī)模 ID 類模型,模型包含數(shù)十億甚至數(shù)百億級別的 ID
    的頭像 發(fā)表于 10-31 14:46 ?769次閱讀
    使用EMBark進(jìn)行<b class='flag-5'>大規(guī)模</b>推薦系統(tǒng)訓(xùn)練Embedding加速

    FPGA仿真黑科技\"EasyGo Vs Addon \",助力大規(guī)模電力電子系統(tǒng)仿真

    ,可以搭建多電機(jī)系統(tǒng)、電力電子系統(tǒng)等包含開關(guān)器件的系統(tǒng)模型。依托強(qiáng)大的FPGA資源,最大可仿真240個關(guān)鍵元件的電力電子系統(tǒng),使得更大規(guī)模的電力電子化電力系統(tǒng)的實時仿真成為可能。▍圖形化模塊靈活組合
    發(fā)表于 10-23 18:18

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    AI大模型在圖像識別中的優(yōu)勢

    AI大模型在圖像識別中展現(xiàn)出了顯著的優(yōu)勢,這些優(yōu)勢主要源于其強(qiáng)大的計算能力、深度學(xué)習(xí)算法以及大規(guī)模的數(shù)據(jù)處理能力。以下是對AI大模型在圖像識別中優(yōu)勢的介紹: 一、高效性與準(zhǔn)確性 處理速
    的頭像 發(fā)表于 10-23 15:01 ?2445次閱讀

    谷歌正在考慮在越南建設(shè)超大規(guī)模數(shù)據(jù)中心

    據(jù)可靠消息透露,Alphabet集團(tuán)旗下的谷歌公司正積極籌劃在越南南部的經(jīng)濟(jì)樞紐胡志明市周邊建設(shè)一座“超大規(guī)模”數(shù)據(jù)中心。此舉標(biāo)志著美國科技巨頭首次在東南亞國家進(jìn)行此類重大投資,盡管具體的投資金額尚待揭曉。
    的頭像 發(fā)表于 08-30 14:55 ?1024次閱讀

    谷歌獲Character.AI大模型技術(shù)授權(quán),創(chuàng)始人重歸谷歌懷抱

    8月5日最新資訊,創(chuàng)新企業(yè)Character.AI在上周五正式宣布,他們已經(jīng)與科技巨頭谷歌的母公司Alphabet達(dá)成了一項重要合作,非獨家授權(quán)谷歌使用其先進(jìn)的大型語言模型技術(shù)。此次合作不僅標(biāo)志著雙方在人工智能領(lǐng)域的
    的頭像 發(fā)表于 08-05 14:35 ?761次閱讀