?
推薦系統(tǒng)是機(jī)器學(xué)習(xí)的一類(lèi),它可使用數(shù)據(jù)來(lái)幫助預(yù)測(cè)、縮小范圍,并找到人們?cè)诔手笖?shù)級(jí)增長(zhǎng)的選項(xiàng)中尋找的內(nèi)容。
1?
什么是推薦系統(tǒng)?
推薦系統(tǒng)是一種人工智能或人工智能算法,通常與機(jī)器學(xué)習(xí)相關(guān),使用大數(shù)據(jù)向消費(fèi)者建議或推薦其他產(chǎn)品。這些推薦可以基于各種標(biāo)準(zhǔn),包括過(guò)去的購(gòu)買(mǎi)、搜索歷史記錄、人口統(tǒng)計(jì)信息和其他因素。推薦系統(tǒng)非常有用,因?yàn)樗鼈兛梢詭椭脩?hù)了解自己無(wú)法自行找到的產(chǎn)品和服務(wù)。
推薦系統(tǒng)經(jīng)過(guò)訓(xùn)練,可使用收集的交互數(shù)據(jù)了解用戶(hù)和產(chǎn)品偏好、之前的決策和特征。其中包括展示、點(diǎn)擊、喜歡和購(gòu)買(mǎi)。推薦系統(tǒng)由于能夠高度個(gè)性化地預(yù)測(cè)消費(fèi)者興趣和需求,因此受到內(nèi)容和產(chǎn)品提供商的喜愛(ài)。從書(shū)籍、視頻、健康課程到服裝,它們都可以促使消費(fèi)者選擇其感興趣的任何產(chǎn)品或服務(wù)。
推薦系統(tǒng)類(lèi)型
雖然有許多推薦算法和技術(shù),但大多數(shù)都屬于以下廣泛類(lèi)別:協(xié)作過(guò)濾、內(nèi)容過(guò)濾和上下文過(guò)濾。
協(xié)作過(guò)濾算法根據(jù)許多用戶(hù)的偏好信息(這是協(xié)作部分)推薦物品(這是過(guò)濾部分)。此方法使用用戶(hù)偏好行為的相似性,并鑒于用戶(hù)與物品之間的之前交互,推薦算法便可以學(xué)會(huì)預(yù)測(cè)未來(lái)交互。這些推薦系統(tǒng)基于用戶(hù)過(guò)去的行為構(gòu)建模型,例如之前購(gòu)買(mǎi)的物品或給予這些物品的評(píng)分以及其他用戶(hù)的類(lèi)似決策。相關(guān)理念在于,如果有些人過(guò)去也做出過(guò)類(lèi)似的決策和購(gòu)買(mǎi),比如電影選擇,那么他們很有可能會(huì)同意未來(lái)的其他選擇。例如,如果協(xié)作過(guò)濾推薦系統(tǒng)了解您和另一個(gè)用戶(hù)在電影中有著相似的品味,它可能會(huì)向您推薦一部其了解的其他用戶(hù)已經(jīng)喜歡的電影。
相比之下,內(nèi)容過(guò)濾則使用物品的屬性或特征(這是內(nèi)容部分)來(lái)推薦類(lèi)似于用戶(hù)偏好的其他物品。此方法基于物品和用戶(hù)特征的相似性,并鑒于用戶(hù)及其與之交互過(guò)的物品的信息(例如,用戶(hù)的年齡、餐廳的菜系、電影的平均評(píng)價(jià)),來(lái)模擬新互動(dòng)的可能性。例如,如果內(nèi)容過(guò)濾推薦系統(tǒng)了解到您喜歡電影《電子情書(shū)》和《西雅圖夜未眠》,它可能會(huì)向您推薦另一部相同類(lèi)別和/或演員陣容的電影,例如《跳火山的人》。
混合推薦系統(tǒng)結(jié)合了上述類(lèi)型系統(tǒng)的優(yōu)勢(shì),以便創(chuàng)建更全面的推薦系統(tǒng)。
上下文過(guò)濾包括推薦過(guò)程中用戶(hù)的背景信息。Netflix 在 NVIDIA GTC 大會(huì)上提出,將推薦內(nèi)容框定為上下文序列預(yù)測(cè),以便作出更好的推薦。此方法使用一系列上下文用戶(hù)操作和當(dāng)前上下文來(lái)預(yù)測(cè)下一個(gè)操作的概率。在 Netflix 示例中,鑒于每位用戶(hù)的序列(用戶(hù)在觀看電影時(shí)的國(guó)家/地區(qū)、設(shè)備、日期和時(shí)間),他們訓(xùn)練出一個(gè)模型,來(lái)預(yù)測(cè)用戶(hù)接下來(lái)要觀看的內(nèi)容。
2?
用例和應(yīng)用
電子商務(wù)與零售:個(gè)性化營(yíng)銷(xiāo)
假設(shè)用戶(hù)已經(jīng)購(gòu)買(mǎi)了一條圍巾。何不提供匹配的帽子,來(lái)完善外觀?此功能通常通過(guò)基于 AI 的算法實(shí)現(xiàn),如電子商務(wù)平臺(tái)(例如 Amazon、沃爾瑪、Target 等)的“搭配造型”或“您可能還喜歡”部分。智能推薦系統(tǒng)能夠?qū)⒕W(wǎng)頁(yè)產(chǎn)品的轉(zhuǎn)換率平均提升 22.66%。
媒體與娛樂(lè):個(gè)性化內(nèi)容
基于 AI 的推薦引擎可以分析個(gè)人的購(gòu)買(mǎi)行為并檢測(cè)模式,這有助于為他們提供更有可能符合其興趣的內(nèi)容建議。這是 Google 和 Facebook 在推薦廣告時(shí)主動(dòng)應(yīng)用的內(nèi)容,或 Netflix 在推薦電影和電視節(jié)目時(shí)在幕后所應(yīng)用的內(nèi)容。
個(gè)性化銀行
作為一款由數(shù)百萬(wàn)人數(shù)字化消費(fèi)的大眾市場(chǎng)產(chǎn)品,銀行是推薦產(chǎn)品的主要選擇。了解客戶(hù)的詳細(xì)金融情況及其過(guò)去偏好,加上數(shù)千名類(lèi)似用戶(hù)的數(shù)據(jù),這一點(diǎn)非常強(qiáng)大。
3?
推薦系統(tǒng)的優(yōu)勢(shì)
推薦系統(tǒng)是推動(dòng)個(gè)性化用戶(hù)體驗(yàn)、與客戶(hù)更深入互動(dòng)以及零售、娛樂(lè)、醫(yī)療健康、金融等行業(yè)中功能強(qiáng)大的決策支持工具的關(guān)鍵組件。在某些大型商業(yè)平臺(tái)上,推薦系統(tǒng)所產(chǎn)生的收入占比高達(dá) 30%。推薦質(zhì)量每提高 1% 可以轉(zhuǎn)化為數(shù)十億美元的收入。
公司出于各種以下原因?qū)嵤┩扑]系統(tǒng):
提高保留率。通過(guò)持續(xù)迎合用戶(hù)和客戶(hù)偏好,企業(yè)更有可能將其保留為忠誠(chéng)的訂閱者或購(gòu)物者。如果客戶(hù)感覺(jué)到品牌真正理解他們且不僅是隨機(jī)地為其提供信息,他們更有可能保持忠誠(chéng)度,并繼續(xù)在您的網(wǎng)站購(gòu)物。
增加銷(xiāo)量。各種研究表明,“您可能還喜歡”準(zhǔn)確的產(chǎn)品推薦導(dǎo)致銷(xiāo)售收入增加 10% 到 50%。只需在購(gòu)買(mǎi)確認(rèn)函中添加匹配的產(chǎn)品推薦內(nèi)容、收集廢棄電子購(gòu)物車(chē)的信息、分享有關(guān)“客戶(hù)現(xiàn)在購(gòu)買(mǎi)的產(chǎn)品的信息”以及分享其他買(mǎi)家的購(gòu)買(mǎi)和評(píng)論,推薦系統(tǒng)策略就可以提高銷(xiāo)量。
幫助形成客戶(hù)習(xí)慣和趨勢(shì)。持續(xù)提供準(zhǔn)確且相關(guān)的內(nèi)容可以觸發(fā)線(xiàn)索,從而建立客戶(hù)的良好的習(xí)慣并影響其使用模式。
加快工作進(jìn)度。當(dāng)為進(jìn)一步研究所需資源和其他材料提供定制建議時(shí),分析師和研究人員可以節(jié)省高達(dá) 80% 的時(shí)間。
提升購(gòu)物車(chē)價(jià)值。擁有成千上萬(wàn)商品出售的公司將面臨的挑戰(zhàn)是,需針對(duì)這種庫(kù)存提供硬編碼產(chǎn)品建議。通過(guò)使用各種過(guò)濾方法,這些電子商務(wù)巨頭可以找到合適時(shí)間,以建議客戶(hù)通過(guò)網(wǎng)站、電子郵件或其他方式想購(gòu)買(mǎi)的新產(chǎn)品。
4?
推薦系統(tǒng)的工作原理
推薦模型如何進(jìn)行推薦將取決于您擁有的數(shù)據(jù)類(lèi)型。如果您只擁有過(guò)去發(fā)生的交互數(shù)據(jù),您可能有興趣使用協(xié)作過(guò)濾。如果您有描述用戶(hù)及其與之交互過(guò)的物品的數(shù)據(jù)(例如,用戶(hù)的年齡、餐廳的菜系、電影的平均評(píng)價(jià)),您可以通過(guò)添加內(nèi)容和上下文過(guò)濾,對(duì)當(dāng)前給定這些屬性下新交互的可能性進(jìn)行建模。
推薦矩陣分解
矩陣分解?(MF) 技術(shù)是許多熱門(mén)算法(包括詞嵌入和主題建模)的核心,已成為基于協(xié)作過(guò)濾的推薦中的主要方法。MF 可用于計(jì)算用戶(hù)的評(píng)分或交互中的相似度,以提供推薦。
在下方簡(jiǎn)單的用戶(hù)物品矩陣中,Ted 和 Carol 喜歡電影 B 和 C。Bob 喜歡電影 B。為了向 Bob 推薦電影,矩陣分解計(jì)算喜歡 B 的用戶(hù)也喜歡 C,因此 C 是 Bob 的一個(gè)可能建議。
使用交替最小二乘法 (ALS) 算法的矩陣分解將稀疏用戶(hù)物品評(píng)價(jià)矩陣 u-by-i 近似為用戶(hù)和物品因素矩陣的兩個(gè)密集矩陣的乘積,其大小分別為 u × f 和 f × i(其中 u 表示用戶(hù)數(shù),i 表示物品數(shù),f 表示潛在特征數(shù))。因素矩陣表示算法嘗試發(fā)現(xiàn)的潛在特征或隱藏特征。一個(gè)矩陣試圖描述每個(gè)用戶(hù)的潛在特征或隱藏特征,另一個(gè)矩陣則試圖描述每部電影的潛在特性。對(duì)于每個(gè)用戶(hù)和每個(gè)物品,ALS 算法會(huì)迭代學(xué)習(xí) (f) 數(shù)字,“factors”表示用戶(hù)或物品。在每一次迭代中,算法可以交替地修復(fù)一個(gè)因子矩陣并針對(duì)另一個(gè)矩陣進(jìn)行優(yōu)化,并且此過(guò)程會(huì)一直持續(xù)到其收斂。
CuMF?是基于 NVIDIA CUDA?的矩陣因子庫(kù),可優(yōu)化替代最小二乘法 (ALS) 方法,以求解大規(guī)模的 MF。CuMF 使用一系列技術(shù),以便在單個(gè)和多個(gè) GPU 上更大限度地提高性能。這些技術(shù)包括利用 GPU 顯存層次結(jié)構(gòu)對(duì)稀疏數(shù)據(jù)進(jìn)行智能訪問(wèn)、將數(shù)據(jù)并行與模型并行結(jié)合使用,以大幅度減少 GPU 之間的通信用度以及全新的拓?fù)涓兄筒⑿袦p少方案。
5?
用于推薦的深度神經(jīng)網(wǎng)絡(luò)模型
人工神經(jīng)網(wǎng)絡(luò) (ANN) 存在不同變體,如下所示:
只將信息從一層向前饋送至下一層的人工神經(jīng)網(wǎng)絡(luò)稱(chēng)為前饋神經(jīng)網(wǎng)絡(luò)。多層感知器 (MLP) 是一種前饋 ANN,由至少三層節(jié)點(diǎn)組成:輸入層、隱藏層和輸出層。MLP 是可應(yīng)用于各種場(chǎng)景的靈活網(wǎng)絡(luò)。
卷積神經(jīng)網(wǎng)絡(luò)是識(shí)別物體的圖像處理器。
時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)是解析語(yǔ)言模式和序列數(shù)據(jù)的數(shù)學(xué)工具。
深度學(xué)習(xí) (DL) 推薦模型基于現(xiàn)有技術(shù)(例如分解)而構(gòu)建,以便對(duì)變量和嵌入之間的交互進(jìn)行建模,從而處理類(lèi)別變量。嵌入是表示實(shí)體特征的已學(xué)習(xí)的數(shù)字向量,因此相似的實(shí)體(用戶(hù)或物品)在向量空間中具有相似的距離。例如,協(xié)作過(guò)濾深度學(xué)習(xí)方法基于用戶(hù)和物品與神經(jīng)網(wǎng)絡(luò)的交互來(lái)學(xué)習(xí)用戶(hù)和物品嵌入(潛在特征向量)。
DL 技術(shù)還利用龐大且快速發(fā)展的新穎網(wǎng)絡(luò)架構(gòu)和優(yōu)化算法,對(duì)大量數(shù)據(jù)進(jìn)行訓(xùn)練,利用深度學(xué)習(xí)的強(qiáng)大功能進(jìn)行特征提取,并構(gòu)建更具表現(xiàn)力的模型。
當(dāng)前基于 DL 的推薦系統(tǒng)模型:DLRM、Wide and Deep (W&D)、神經(jīng)協(xié)作過(guò)濾 (NCF)、b 變分自動(dòng)編碼器 (VAE)?和 BERT(適用于 NLP)構(gòu)成了 NVIDIA GPU 加速 DL 模型產(chǎn)品組合的一部分,并涵蓋推薦系統(tǒng)以外的許多不同領(lǐng)域的各種網(wǎng)絡(luò)架構(gòu)和應(yīng)用程序,包括圖像、文本和語(yǔ)音分析。這些模型專(zhuān)為使用 TensorFlow 和 PyTorch 進(jìn)行訓(xùn)練而設(shè)計(jì)和優(yōu)化。
神經(jīng)協(xié)作過(guò)濾
神經(jīng)協(xié)作過(guò)濾?(NCF) 模型是一個(gè)神經(jīng)網(wǎng)絡(luò),可基于用戶(hù)和物品交互提供協(xié)作過(guò)濾。該模型從非線(xiàn)性角度處理矩陣分解。NCF TensorFlow 以一系列(用戶(hù) ID、物品 ID)對(duì)作為輸入,然后分別將其輸入到矩陣分解步驟(其中嵌入成倍增加)并輸入到多層感知器 (MLP) 網(wǎng)絡(luò)中。
然后,將矩陣分解和 MLP 網(wǎng)絡(luò)的輸出將組合到一個(gè)密集層中,以預(yù)測(cè)輸入用戶(hù)是否可能與輸入物品交互。
用于協(xié)作過(guò)濾的變分自動(dòng)編碼器
自動(dòng)編碼器神經(jīng)網(wǎng)絡(luò)使用隱藏層中獲取的表征,來(lái)重建輸出層的輸入層。用于協(xié)作過(guò)濾的自動(dòng)編碼器可以學(xué)習(xí)用戶(hù)物品矩陣的非線(xiàn)性表征,并可通過(guò)確定缺失值重建該矩陣。
用于協(xié)作過(guò)濾 (VAE-CF) 的 NVIDIA GPU 加速變分自動(dòng)編碼器是一種優(yōu)化的架構(gòu)實(shí)現(xiàn),首先在用于協(xié)作過(guò)濾的變分自動(dòng)編碼器中介紹。VAE-CF 是一個(gè)神經(jīng)網(wǎng)絡(luò),可基于用戶(hù)和物品交互提供協(xié)作過(guò)濾。此模型的訓(xùn)練數(shù)據(jù)由用戶(hù)和物品之間的每次交互的用戶(hù)項(xiàng) ID 對(duì)組成。
模型包含兩部分:編碼器和解碼器。編碼器是一個(gè)前饋全連接神經(jīng)網(wǎng)絡(luò),可將輸入向量(包含特定用戶(hù)的交互)轉(zhuǎn)換為 n 維變分分布。這種變分分布用于獲取用戶(hù)(或嵌入)的潛在特征表征。然后,將這種潛在表征輸入到解碼器中,解碼器也是一個(gè)與編碼器結(jié)構(gòu)相似的前饋網(wǎng)絡(luò)。結(jié)果為特定用戶(hù)的物品交互概率向量。
上下文序列學(xué)習(xí)
時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)?(RNN) 是具有記憶或反饋回路的一類(lèi)神經(jīng)網(wǎng)絡(luò),允許其更好地識(shí)別數(shù)據(jù)中的模式。RNN 可以解決處理上下文和序列(例如自然語(yǔ)言處理)的艱巨任務(wù),還可用于上下文序列推薦。序列學(xué)習(xí)與其他任務(wù)的區(qū)別是,序列學(xué)習(xí)需要使用具有主動(dòng)數(shù)據(jù)存儲(chǔ)的模型(例如 LSMS(長(zhǎng)短期記憶模型)或 GRU 門(mén)控循環(huán)單元)來(lái)學(xué)習(xí)輸入數(shù)據(jù)的時(shí)間依賴(lài)關(guān)系。這種對(duì)過(guò)往輸入的記憶對(duì)于順利進(jìn)行序列學(xué)習(xí)至關(guān)重要。
Transformer 深度學(xué)習(xí)模型,如 BERT(Transformer 雙向編碼器表征模型),是 RNN 的一個(gè)替代方案,它應(yīng)用了一種注意力技術(shù) – 通過(guò)將注意力集中在前后最相關(guān)的詞上來(lái)解析一個(gè)句子。基于 Transformer 的深度學(xué)習(xí)模型不需要按順序處理連續(xù)數(shù)據(jù),與 RNN 相比,可以在 GPU 上實(shí)現(xiàn)更多的并行化,并減少訓(xùn)練時(shí)間。
在 NLP 應(yīng)用中,會(huì)使用詞嵌入等技術(shù)將輸入文本轉(zhuǎn)換為詞向量。借助詞嵌入,可將句子中的每個(gè)詞翻譯成一組數(shù)字,然后再輸入到 RNN 變體、Transformer 或 BERT 中,以理解上下文。神經(jīng)網(wǎng)絡(luò)在訓(xùn)練自身時(shí),這些數(shù)字會(huì)隨時(shí)發(fā)生變化,編碼每個(gè)單詞的語(yǔ)義和上下文信息等獨(dú)特屬性,這意味著,相似詞在此數(shù)字空間中彼此接近,不同詞則相距遙遠(yuǎn)。這些 DL 模型為特定語(yǔ)言任務(wù)(例如下一詞語(yǔ)預(yù)測(cè)和文本摘要)提供適當(dāng)?shù)妮敵?,這些任務(wù)用于生成輸出序列。
基于會(huì)話(huà)上下文的推薦將深度學(xué)習(xí)和 NLP 序列建模方面的進(jìn)步應(yīng)用于推薦內(nèi)容?;谟脩?hù)會(huì)話(huà)中的事件序列訓(xùn)練的 RNN 模型(例如,查看的產(chǎn)品、數(shù)據(jù)和交互時(shí)間)會(huì)學(xué)習(xí)預(yù)測(cè)會(huì)話(huà)中的下一個(gè)物品。會(huì)話(huà)中的用戶(hù)物品交互類(lèi)似于句子中的詞嵌入。例如,在將觀看的電影輸入 RNN 變體(例如 LSTM、GRU 或 Transformer)之前,需要將其轉(zhuǎn)換為一組數(shù)字,以理解上下文。
Wide & Deep
Wide & Deep 是指使用并行處理兩個(gè)部分(Wide 模型和 Deep 模型)的輸出,并對(duì)其輸出進(jìn)行求和以創(chuàng)建交互概率的網(wǎng)絡(luò)類(lèi)別。Wide 模型是特征及其轉(zhuǎn)換的一個(gè)廣義線(xiàn)性模型。Deep 模型是一個(gè)密集神經(jīng)網(wǎng)絡(luò) (DNN),由 5 個(gè)隱藏 MLP 層(包含 1024 個(gè)神經(jīng)元)組成,每個(gè)層都從密集特征嵌入開(kāi)始。分類(lèi)變量會(huì)嵌入到連續(xù)向量空間中,然后通過(guò)學(xué)習(xí)的嵌入或用戶(hù)確定的嵌入輸入到 DNN 中。
為何模型能夠成功執(zhí)行推薦任務(wù),原因之一是提供數(shù)據(jù)中的兩種學(xué)習(xí)模式:“deep”和“shallow”。復(fù)雜的非線(xiàn)性 DNN 能夠?qū)W習(xí)數(shù)據(jù)中豐富的關(guān)系表征,并可通過(guò)嵌入來(lái)推廣到相似的物品,但需要查看相關(guān)關(guān)系的多種示例才能做得更好。另一方面,線(xiàn)性部分能夠“記住”可能僅在訓(xùn)練集內(nèi)發(fā)生幾次的簡(jiǎn)單關(guān)系。
綜合來(lái)說(shuō),這兩種表征信道通常比單種表征信道提供更多的建模能力。NVIDIA 與許多使用離線(xiàn)和在線(xiàn)指標(biāo)報(bào)告改進(jìn)的行業(yè)合作伙伴合作,他們使用 Wide & Deep 替代傳統(tǒng)機(jī)器學(xué)習(xí)模型。
DLRM
DLRM 是一種基于 DL 的模型,適用于推薦,由 Facebook 研究院提出。它旨在同時(shí)使用推薦系統(tǒng)訓(xùn)練數(shù)據(jù)中通常呈現(xiàn)的分類(lèi)輸入和數(shù)值輸入。要處理分類(lèi)數(shù)據(jù),嵌入層將每個(gè)類(lèi)別映射到密集表征,然后再將其輸入到多層感知器 (MLP)。數(shù)值特征可直接輸入到 MLP。
在下一級(jí)別中,通過(guò)在所有嵌入向量對(duì)和已處理的密集特征之間取點(diǎn)積,顯式計(jì)算不同特征的二次交互。并將這些成對(duì)交互輸入到頂層 MLP 中,以計(jì)算用戶(hù)和物品對(duì)之間的交互概率。
與其他基于 DL 的推薦方法相比,DLRM 有兩種差異。首先,它可以對(duì)特征交互進(jìn)行顯式計(jì)算,同時(shí)將交互順序限制為成對(duì)交互。其次,DLRM 將每個(gè)嵌入式特征向量(對(duì)應(yīng)分類(lèi)特征)視為一個(gè)單元,而其他方法(如 Deep 和 Cross)則將特征向量中的每個(gè)元素視為應(yīng)生成不同交叉項(xiàng)目的新單元。這些設(shè)計(jì)選項(xiàng),有助于降低計(jì)算/內(nèi)存成本,同時(shí)保持競(jìng)爭(zhēng)的準(zhǔn)確性。
DLRM 是 NVIDIA Merlin 的一部分,后者是一個(gè)基于 DL 所構(gòu)建的高性能推薦系統(tǒng)框架,我們下面將介紹這一框架。
6?
為何推薦系統(tǒng)在 GPU 上表現(xiàn)更出色?
推薦系統(tǒng)能夠提高消費(fèi)者在熱門(mén)平臺(tái)上的參與度。隨著數(shù)據(jù)規(guī)模變得越來(lái)越大(數(shù)千萬(wàn)到數(shù)十億的示例),DL 技術(shù)正展現(xiàn)出傳統(tǒng)方法所不具備的優(yōu)勢(shì)。因此,更復(fù)雜的模型與數(shù)據(jù)的快速增長(zhǎng)相結(jié)合,提高了計(jì)算資源的標(biāo)準(zhǔn)。
許多機(jī)器學(xué)習(xí)算法的基礎(chǔ)數(shù)學(xué)運(yùn)算通常是矩陣乘法。這些類(lèi)型的運(yùn)算具有高度并行性,并且可以使用 GPU 大幅加速。
一個(gè)由數(shù)百個(gè)核心組成的 GPU,可以并行處理數(shù)千個(gè)線(xiàn)程。由于神經(jīng)網(wǎng)絡(luò)由大量相同的神經(jīng)元構(gòu)建而成,因此本質(zhì)上具有高度并行性。這種并行性自然地映射到 GPU,GPU 的性能比僅依賴(lài) CPU 的平臺(tái)高 10 倍。因此,GPU 已成為訓(xùn)練基于神經(jīng)網(wǎng)絡(luò)的大型復(fù)雜系統(tǒng)的首選平臺(tái),推理運(yùn)算的并行性質(zhì)也有助于在 GPU 上執(zhí)行。
7?
NVIDIA Merlin 推薦系統(tǒng)應(yīng)用程序框架
大型推薦系統(tǒng)解決方案的性能存在多種挑戰(zhàn),包括大型數(shù)據(jù)集、復(fù)雜的數(shù)據(jù)預(yù)處理和特征工程流程,以及大量重復(fù)實(shí)驗(yàn)。為滿(mǎn)足大規(guī)模 DL 推薦系統(tǒng)訓(xùn)練和推理的計(jì)算需求,推薦您使用 GPU 解決方案,可為您提供快速的特征工程和高訓(xùn)練吞吐量(以實(shí)現(xiàn)快速實(shí)驗(yàn)和生產(chǎn)再訓(xùn)練)。它們還可為您提供低延遲、高吞吐量的推理。
NVIDIA Merlin 是一個(gè)開(kāi)源應(yīng)用程序框架和生態(tài)系統(tǒng),旨在促進(jìn)從實(shí)驗(yàn)到生產(chǎn)的推薦系統(tǒng)開(kāi)發(fā)的所有階段,并由 NVIDIA GPU 加速。
該框架可為推薦數(shù)據(jù)集中常見(jiàn)的運(yùn)算符提供快速的特征工程和預(yù)處理,以及為其提供多個(gè)基于深度學(xué)習(xí)的典型推薦模型的高訓(xùn)練吞吐量。其中包括 Wide & Deep、Deep Cross Networks、DeepFM 和 DLRM,這些模型可實(shí)現(xiàn)快速實(shí)驗(yàn)和生產(chǎn)再訓(xùn)練。對(duì)于生產(chǎn)部署,Merlin 還提供低延遲、高吞吐量和生產(chǎn)推理。這些組件相結(jié)合,為在 GPU 上的訓(xùn)練和部署深度學(xué)習(xí)推薦系統(tǒng)模型提供端到端框架,該框架既易于使用,又具有高性能。
Merlin 還包括用于構(gòu)建基于深度學(xué)習(xí)的推薦系統(tǒng)的工具,并可提供比傳統(tǒng)方法更準(zhǔn)確的預(yù)測(cè)。管線(xiàn)的每個(gè)階段都經(jīng)過(guò)優(yōu)化,可支持?jǐn)?shù)百 TB 的數(shù)據(jù),您可通過(guò)易于使用的 API 訪問(wèn)所有這些數(shù)據(jù)。
NVTabular 通過(guò) GPU 加速特征轉(zhuǎn)換和預(yù)處理來(lái)縮短數(shù)據(jù)準(zhǔn)備時(shí)間。
HugeCTR 是一種 GPU 加速深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練框架,旨在跨多個(gè) GPU 和節(jié)點(diǎn)分發(fā)訓(xùn)練。它支持模型并行嵌入表和數(shù)據(jù)并行神經(jīng)網(wǎng)絡(luò)及其變體,例如 Wide and Deep Learning (WDL)、Deep Cross Network (DCN)、DeepFM 和深度學(xué)習(xí)模型 (DLRM)。
NVIDIA Triton?推理服務(wù)器和 NVIDIA TensorRT?加速 GPU 上的生產(chǎn)推理,以便實(shí)現(xiàn)特征轉(zhuǎn)換和神經(jīng)網(wǎng)絡(luò)執(zhí)行。
8?
NVIDIA GPU 加速的端到端數(shù)據(jù)科學(xué)和 DL
NVIDIA Merlin 基于 NVIDIA RAPIDS 構(gòu)建。通過(guò)基于 CUDA 構(gòu)建的 RAPIDS?開(kāi)源軟件庫(kù)套件,您能夠完全在 GPU 上執(zhí)行端到端數(shù)據(jù)科學(xué)和分析流程,同時(shí)仍然使用 Pandas 和 Scikit-Learn API 等熟悉的界面。
9?
NVIDIA GPU 加速的深度學(xué)習(xí)框架
GPU 加速深度學(xué)習(xí)框架能夠?yàn)樵O(shè)計(jì)和訓(xùn)練自定義深度神經(jīng)網(wǎng)絡(luò)帶來(lái)靈活性,并為 Python 和 C/C++ 等常用編程語(yǔ)言提供編程接口。MXNet、PyTorch、TensorFlow 等廣泛使用的深度學(xué)習(xí)框架依賴(lài)于 NVIDIA GPU 加速庫(kù),能夠提供高性能的多 GPU 加速訓(xùn)練。
編輯:黃飛
?
評(píng)論