一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是智能內(nèi)容生成?萬字講述智能內(nèi)容生成實(shí)踐

電子工程師 ? 來源:lp ? 2019-04-22 11:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文主要介紹阿里巴巴-搜索事業(yè)部算法團(tuán)隊(duì)上半年在智能內(nèi)容生成方向工作的一些實(shí)踐和思考。本文最早2017年10月初在集團(tuán)內(nèi)部發(fā)表,并獲得雙十一征文 "一騎絕塵" 獎,對外最早發(fā)表在阿里云云棲社區(qū)。

believe it or not,上圖中的文本內(nèi)容就是智能內(nèi)容生成的數(shù)據(jù),并非人工篩選的結(jié)果,線上大量投放。接下來本文介紹下這些商品內(nèi)容究竟是怎么生成出來的:

一、項(xiàng)目背景

1.1 什么是智能內(nèi)容生成?更準(zhǔn)確的定義應(yīng)該是智能文本內(nèi)容生成,指的是訓(xùn)練機(jī)器模型,智能生成單品推薦理由、多商品清單文章一類的文本型內(nèi)容,顯然,與智能內(nèi)容生成相對的概念是達(dá)人內(nèi)容生成。學(xué)界相關(guān)的技術(shù)領(lǐng)域?yàn)?NLG (Nature Language Generation),我們在項(xiàng)目內(nèi)部定義為Data2Seq(D2S),即根據(jù)結(jié)構(gòu)化數(shù)據(jù)(Data)生成文本(Seq)。1.2 為什么要做智能內(nèi)容生成項(xiàng)目?首先,內(nèi)容化本身有著重要的業(yè)務(wù)價值。從手淘業(yè)務(wù)層面考慮,在移動互聯(lián)網(wǎng)時代的格局已定的大環(huán)境下,各個領(lǐng)域的APP都開始從粗放爭奪用戶量轉(zhuǎn)向精細(xì)化爭奪用戶時間,內(nèi)容類公司也是愈發(fā)火熱。手淘從去年起開始逐漸進(jìn)行內(nèi)容化定位,用社區(qū)化、內(nèi)容化去爭取用戶停留時間。從手淘首頁的變化不難管中窺豹,各種各樣的內(nèi)容化場景層出不窮。因此搜索場景在這樣的大背景下自然不再只是承載成交轉(zhuǎn)化效率,內(nèi)容化在搜索有很多場景可以落地且具備巨大業(yè)務(wù)價值。

其次,目前手淘下各個場景的內(nèi)容化還是主要依賴達(dá)人內(nèi)容生成,達(dá)人內(nèi)容生成天然存在覆蓋商品量少、成本高的問題。

最后,從技術(shù)可行性角度考慮,近幾年深度學(xué)習(xí)的浪潮強(qiáng)勁,在圖像、語音、自然語言、信息檢索等很多領(lǐng)域都取得了突破,內(nèi)部看搜索算法團(tuán)隊(duì)在前沿技術(shù)深度積累更多用于搜索場景效率提升,有必要向更general更廣闊的場景轉(zhuǎn)移,用技術(shù)驅(qū)動業(yè)務(wù)創(chuàng)新。更為重要的是,時至今日,淘寶平臺已經(jīng)積累了千萬級的達(dá)人訓(xùn)練數(shù)據(jù),具備了很強(qiáng)的可行性。而從團(tuán)隊(duì)角度出發(fā),我們在過去的工作中積累了一套完善的知識圖譜數(shù)據(jù)、商品理解能力和NLP領(lǐng)域的深度學(xué)習(xí)相關(guān)知識儲備,有能力提供系統(tǒng)化的文本內(nèi)容生成解決方案。1.3 智能內(nèi)容生成相對達(dá)人內(nèi)容生成的優(yōu)勢是什么?劣勢又是什么?智能內(nèi)容生成除了批量化生成內(nèi)容和低成本外,在電商三要素"人""貨""場"角度都有明顯的優(yōu)勢:

貨:機(jī)器對商品有更深的理解,生成的內(nèi)容可以有遠(yuǎn)超達(dá)人的信息量。這也是我們最大的point所在,“機(jī)器的優(yōu)勢不在于可以說一段類似達(dá)人流暢的話,更在于說出達(dá)人說不出的干貨”。達(dá)人對商品了解的信息量實(shí)際很有限,而我們擁有淘寶的海量靜態(tài)和行為數(shù)據(jù),可以全面、精準(zhǔn)和即時的感知商品信息和流行趨勢變化,真正的數(shù)據(jù)生成文本。

人:機(jī)器可以做到個性化的內(nèi)容生成。從對用戶理解出發(fā),我們有非常精細(xì)的UserProfile,知道用戶的喜歡哪些賣點(diǎn),個性化內(nèi)容推送的基礎(chǔ)是有個性化的內(nèi)容生成,達(dá)人一般最多做到“場”粒度,顯然極難做到個性化粒度。

場:不同場景下,機(jī)器可以靈活的定制生成內(nèi)容的樣式風(fēng)格和所依賴的底層商品池。

機(jī)器的劣質(zhì)其實(shí)也很明顯,盡管深度學(xué)習(xí)技術(shù)對智能內(nèi)容生成的發(fā)展有了很大的推動,但其本質(zhì)還是沒有脫離從海量數(shù)據(jù)中統(tǒng)計(jì)學(xué)習(xí)的思路,無法從小樣本學(xué)習(xí),并且學(xué)習(xí)的空間其實(shí)是相對世界的一個非常小的子集,也基本無法做到像達(dá)人一樣旁征博引,可以生成更有創(chuàng)造力的文案。

1.4 項(xiàng)目目標(biāo)是什么?其實(shí)寫出一段流暢的類似達(dá)人的內(nèi)容文本并非難事,甚至簡單的N-Gram模型中也能挑出一些有意思的話,更大的考驗(yàn)在于如果在工業(yè)界的線上場景穩(wěn)定上線,需要很高的準(zhǔn)確率和一套完善的質(zhì)量提升方案。項(xiàng)目目標(biāo)是能夠delivery一套智能內(nèi)容生成的高質(zhì)量、系統(tǒng)化的解決方案,在搜索場景和搜索外場景拓展應(yīng)用,并為未來更好的發(fā)展內(nèi)容生成技術(shù)打好基礎(chǔ)。

二、NLG問題綜述

智能內(nèi)容生成在學(xué)界相關(guān)領(lǐng)域?yàn)镹LG,NLG任務(wù)的目標(biāo)是根據(jù)輸入數(shù)據(jù)生成自然語言文本,在NLP領(lǐng)域我們接觸更多的是NLU(Nature Language Understanding,如命名實(shí)體識別、文本分類等)類任務(wù),NLU的目標(biāo)則將自然文本轉(zhuǎn)化成結(jié)構(gòu)化數(shù)據(jù),顯然,NLG和NLU是一對相反的過程。

NLG本身其實(shí)是一個很寬泛的概念,如下圖所示,廣義上來講只要輸出端是自然語言文本的很多任務(wù)都屬于這個范疇,除了結(jié)構(gòu)化數(shù)據(jù)到文本的Data2Text任務(wù),比如機(jī)器翻譯、文本摘要等Text2Text類任務(wù),ImageCaptioning等Image2Text類的任務(wù)都是NLG。在學(xué)界有關(guān)NLG最權(quán)威的定義是“根據(jù)非文本型的信息生成的自然文本的過程”(Reiter & Dale, 1997, 2000),是狹義上講的NLG,特指Data2Text(完全等同于Data2Seq),即輸入端為Data(結(jié)構(gòu)化數(shù)據(jù))輸出端為Seq(自然語言文本)。比如根據(jù)溫度、風(fēng)向等測量數(shù)據(jù)生成天氣預(yù)報文本是Data2Seq的一個經(jīng)典范例。

事實(shí)上,Data2Seq領(lǐng)域在工業(yè)界有著非常大的應(yīng)用價值,應(yīng)用領(lǐng)域如天氣預(yù)報、體育報道、財(cái)經(jīng)新聞和醫(yī)療報告等。一些典型的公司如Automated Insights已經(jīng)撰寫了超過3億篇財(cái)經(jīng)體育等領(lǐng)域報導(dǎo),下圖是其根據(jù)Amazon的財(cái)報數(shù)據(jù)自動生成一篇文章的范例,國外其他知名的NLG公司還有ARRIA、NarrativeScience。

我們做智能內(nèi)容生成項(xiàng)目最大的初心所在,我們的目標(biāo)不僅僅是為了寫出一些達(dá)人能寫的描述,更在乎既然今天的淘寶擁有如此多的用戶數(shù)據(jù)、商品數(shù)據(jù)和行為數(shù)據(jù),有足夠好的計(jì)算基礎(chǔ)設(shè)施,我們能夠知道消費(fèi)者關(guān)注什么,知道哪些商品好,好在哪里,我們更要去用好這些data,驅(qū)動業(yè)務(wù)創(chuàng)新,也許是一個產(chǎn)品或品牌綜述,也許是多商品對比評測,項(xiàng)目名字之所以叫“阿士比亞”,也正是我們期望他能成為“阿里的莎士比亞”。

傳統(tǒng)的NLG的實(shí)現(xiàn)套路是將整個文本內(nèi)容生成過程設(shè)計(jì)為宏觀規(guī)劃、微觀規(guī)劃和表層實(shí)現(xiàn)三個獨(dú)立的模塊串接而成的pipeline,如下圖所示,系統(tǒng)的輸入分為兩部分,一部分是在原始數(shù)據(jù)中發(fā)現(xiàn)的pattern,類比于我們下文將介紹的智能素材庫;另一部分是文本生成Goal,類似下文將展開介紹的Data2Seq模型的Control部分,比如在天氣預(yù)報場景中Goal可以是綜述過去N-day的溫度還是進(jìn)行預(yù)測未來N-day天氣,目標(biāo)不同則后續(xù)的宏觀規(guī)劃甚至微觀規(guī)劃也不相同。具體到文本生成pipeline里面,宏觀規(guī)劃階段解決“說什么”的問題,微觀規(guī)劃和表層實(shí)現(xiàn)則是解決“怎么說”的問題。具體的:

傳統(tǒng)NLG系統(tǒng)框架

宏觀規(guī)劃:也被稱為內(nèi)容規(guī)劃或文檔規(guī)劃,主要目標(biāo)是選擇出需要在文本內(nèi)提及的內(nèi)容和文檔結(jié)構(gòu),一般來講。類比到商品推薦理由生成里面,就是賣點(diǎn)選擇和賣點(diǎn)順序規(guī)劃過程。

微觀規(guī)劃:也被稱為句子規(guī)劃,顧名思義,就是在句子粒度的優(yōu)化,這個階段的輸入為宏觀規(guī)劃選中的內(nèi)容和結(jié)構(gòu),主要涉及到對句子進(jìn)行規(guī)劃以及句子實(shí)現(xiàn),要求最終實(shí)現(xiàn)的句子具有正確的語法、形態(tài)和拼寫,同時采用準(zhǔn)確的指代表達(dá)。

表層實(shí)現(xiàn):則是句子實(shí)現(xiàn)的最上層,類似于寫作中文筆潤色過程。

顯然以上這種pipeline結(jié)構(gòu)的存在的最大問題是將任務(wù)拆分成獨(dú)立幾個部分,也就是非端到端,這本身就損失了很多信息上限顯然并不高。實(shí)際上,盡管NLG領(lǐng)域的研究起源比較早,但在學(xué)術(shù)界長期處于停滯狀態(tài),原因主要在于NLG是一個簡單輸入復(fù)雜輸出的任務(wù),問題的復(fù)雜度太大,至今沒能探索出一個準(zhǔn)確高且泛化能力強(qiáng)的方法,不少場景下整體甚至低于人工規(guī)則。

另外,NLG領(lǐng)域至今也沒有一個客觀且準(zhǔn)確的優(yōu)化目標(biāo)或者說評估標(biāo)準(zhǔn),這也是限制該領(lǐng)域發(fā)展的重要原因。目前的主流的評估方法分兩類:人工評測和基于數(shù)據(jù)評估。人工評測的維度主要是流暢度、可讀性、信息量、正確性和冗余度;基于數(shù)據(jù)的評估主要有三個思路,基于n-gram匹配的BLUE和ROUGE等,基于字符距離的Edit Distance等和基于內(nèi)容Coverage比率的Jarcard距離等?;跀?shù)據(jù)的評測在NMT場景還有一定意義,這也是NMT領(lǐng)域最先有所突破的一個重要原因,但在內(nèi)容生成場景基本意義不大了,無法給出真正有意義的度量,我們在實(shí)際項(xiàng)目中基本依賴人工評測和分析為主。

近年來,隨著深度學(xué)習(xí)在廣義NLG問題上特別是NMT(Nerual Machine Translation)、Text Summarization領(lǐng)域的突破,基于深度學(xué)習(xí)的端到端的Data2Seq類模型的研究也越來越多,本文介紹的生成式內(nèi)容生成模型Data2Seq正是處于這樣一個背景,第六章節(jié)會詳細(xì)闡述。另外,借鑒于文本摘要領(lǐng)域抽取式和生成式兩種方法的思路,結(jié)合淘寶商品數(shù)據(jù)實(shí)際,我們設(shè)計(jì)并實(shí)現(xiàn)了一套基于詳情頁的抽取式內(nèi)容生成方法,將在本文第七章節(jié)詳細(xì)闡述。

三、現(xiàn)階段的產(chǎn)品形態(tài)

項(xiàng)目組現(xiàn)階段的產(chǎn)出是以商品單品的推薦理由為主,因此我們從覆蓋商品數(shù)量角度出發(fā)定義了兩種產(chǎn)品形態(tài),即:單品的推薦理由和多商品的智能清單。在這里提前做下產(chǎn)品形態(tài)的簡單介紹,這樣大家讀起來會更加有體感。3.1 單品推薦理由顧名思義,就是有關(guān)單個商品核心賣點(diǎn)的描述。我們又從文本長度特征出發(fā)將單品推薦理由區(qū)分成兩類:單品的一句話導(dǎo)購短句和多句話短篇推薦理由。下圖是我們8月份在搜索-挑尖貨場景全量的一句話導(dǎo)購短句的應(yīng)用實(shí)例。

單品推薦理由線上效果示意圖

3.2 多商品智能清單智能清單覆蓋商品數(shù)量一般在10-20個左右,清單內(nèi)的單品介紹一般類似于單品短篇推薦理由,長度大致在30-40個字居多。智能清單內(nèi)除了單品短篇推薦理由,還包括清單選品,清單標(biāo)題兩部分。此外清單內(nèi)的商品推薦理由不同于單品推薦理由的一點(diǎn)是,它既需要考慮清單的主題保持一致性,又要同時考慮其他商品生成的推薦理由以避免重復(fù)從而保證多樣性。

智能清單線上產(chǎn)品形態(tài)

四、整體技術(shù)方案綜述

下圖所列的是智能內(nèi)容生成項(xiàng)目的整體框架。在上文的NLG綜述中已經(jīng)介紹過,內(nèi)容生成的輸入部分有兩個,一個是下圖中的智能素材庫,是內(nèi)容生成的底料來源,另一部分生成目標(biāo)則被集成到我們Data2Seq模型中了,在本文第六章節(jié)Data2Seq模型部分會詳細(xì)介紹。而內(nèi)容生成核心問題兩大核心問題說什么(What to Say)和怎么說(How to Say),即宏觀規(guī)劃、微觀規(guī)劃和表層實(shí)現(xiàn)在我們的方案中全部融入到深度學(xué)習(xí)的端到端模型中,同樣會在第六章節(jié)詳細(xì)展開。

智能內(nèi)容生成系統(tǒng)框架庫

上圖主要包括智能素材庫和智能內(nèi)容兩個部分,接下來分別做下介紹:4.1 基于知識圖譜和統(tǒng)計(jì)挖掘的智能素材庫智能素材庫中主要包括商品相關(guān)的動態(tài)和靜態(tài)兩類信息,靜態(tài)信息比如商品的品牌、風(fēng)格、款式等,動態(tài)信息則是類似于流行趨勢、人群偏好、促銷優(yōu)惠等。其中靜態(tài)信息的獲取是基于知識圖譜的商品理解模塊對商品的標(biāo)題、屬性、詳情等文本進(jìn)行理解的結(jié)果;動態(tài)信息則是基于用戶的行為日志和靜態(tài)信息的分析結(jié)果統(tǒng)計(jì)挖掘得到的。智能素材庫里商品的每個維度的靜態(tài)信息和動態(tài)信息我們統(tǒng)一定義為Topic,又因?yàn)槿縼碓从谏唐?,下文用”Item Topics“或“商品賣點(diǎn)”代指智能素材庫中商品的動態(tài)靜態(tài)的結(jié)構(gòu)化信息。智能素材庫的用戶有兩個,一個是提供給達(dá)人,達(dá)人寫作過程中作為參考用,目前已經(jīng)在達(dá)人平臺上線;另一個就是提供給智能內(nèi)容生成訓(xùn)練和預(yù)測數(shù)據(jù)中的Item Topics部分。4.2 智能內(nèi)容生成智能內(nèi)容生成部分的核心是Data2Seq模型,它的訓(xùn)練數(shù)據(jù)輸入包括部分:來自素材庫的Item Topics和基于知識圖譜的內(nèi)容理解分析的達(dá)人內(nèi)容的Target Topics,目標(biāo)則是達(dá)人內(nèi)容。模型部分除了Data2Seq模型,還有基于知識圖譜的Evaluator模型,事實(shí)上Evaluator模型不僅僅工作在預(yù)測Seq生成階段生效,在訓(xùn)練數(shù)據(jù)和目標(biāo)的的預(yù)處理和過濾同時生效。此外,整個訓(xùn)練基于Pai-Tensorflow平臺進(jìn)行。以上便是項(xiàng)目的整體技術(shù)框架,接下來會分別詳細(xì)闡述。

五、智能素材庫

智能素材庫的作用前面已經(jīng)講的比較多了,該部分主要介紹下商品賣點(diǎn)設(shè)計(jì)、靜態(tài)信息計(jì)算的基于圖譜的商品&內(nèi)容理解和動態(tài)信息計(jì)算中的統(tǒng)計(jì)挖掘的方法的一些細(xì)節(jié)。5.1 商品賣點(diǎn)設(shè)計(jì)

如下圖所示,商品賣點(diǎn)素材信息包括靜態(tài)信息和動態(tài)信息兩部分。靜態(tài)部分主要包括商品的基礎(chǔ)屬性元素,如品牌、款式、風(fēng)格以及這些屬性元素相關(guān)的擴(kuò)展信息,比如品牌的調(diào)性、產(chǎn)地,店鋪的資質(zhì)等,這一部分的信息依賴知識圖譜和基于其的商品理解。動態(tài)部分包括促銷活動、上新、成交分布和趨勢、評價、搭配和LBS等,其中成交分布和趨勢的細(xì)分到屬性粒度依賴靜態(tài)信息的理解結(jié)果,典型的動態(tài)信息比如”最近一個月口紅的流行顏色趨勢“信息。目前我們基本已經(jīng)涵蓋主要類目的靜態(tài)信息分析,動態(tài)信息上主要集中在成交分布&趨勢和上新方面。

5.2 基于知識圖譜的商品理解和內(nèi)容理解

知識圖譜概覽:我們內(nèi)部稱之為“云壤知識庫”。云壤內(nèi)涵蓋兩類知識:詞條和關(guān)系。詞條知識覆蓋淘寶電商相關(guān)的30種類型知識(如品牌、材質(zhì)、款式、風(fēng)格、功能功效、人群等等)目前詞條數(shù)量1891w(其中品牌詞58.8w,品類詞8w,風(fēng)格詞3.6k,產(chǎn)地詞3.8k,圖案詞10w,人群詞360等)。關(guān)系數(shù)據(jù)包括同義關(guān)系、上位關(guān)系、下位關(guān)系、沖突關(guān)系、父子品牌關(guān)系等類型,5636w+條關(guān)系。知識圖譜相應(yīng)的詞條和關(guān)系的挖掘算法等接下來會有專門文章介紹,在這里就不再詳細(xì)展開了。

目前知識圖譜主要支持的線上業(yè)務(wù)是主搜索的query理解、屬性相關(guān)性(“絲綢之路”)、產(chǎn)品庫和平臺治理負(fù)向發(fā)布端管控、搜索端管控等。下圖是云壤知識庫的前端界面。

云壤知識庫前端界面

基于知識圖譜的詞條和關(guān)系,我們有一套商品理解和內(nèi)容理解系統(tǒng),核心模塊包含詞條匹配和消歧兩個模塊,其中消歧模型的主要技術(shù)方案見下,主要是基于雙向LSTM+CRF的思路實(shí)現(xiàn)的,同上詳細(xì)的細(xì)節(jié)在本文不展開了,后面的圖是商品理解結(jié)果的前端示意圖。

消歧技術(shù)方案

基于知識圖譜的商品理解結(jié)果示意圖

5.3 基于行為日志的統(tǒng)計(jì)挖掘

具體的方法是我們在商品和人群端分別挖掘標(biāo)簽,然后根據(jù)相互的笛卡爾積交叉得到各個維度計(jì)算排名和趨勢信號(其中趨勢信號用day-維度線性回歸即可),具體的計(jì)算過程見下圖。其中商品標(biāo)簽來源于基于知識圖譜的的商品理解結(jié)果;人群標(biāo)簽方面,我們主要依賴阿里巴巴數(shù)據(jù)超市的基礎(chǔ)Tag組合而成人群標(biāo)簽,下面的表是人群標(biāo)簽的幾個范例,標(biāo)簽別名是在生成內(nèi)容時為了增加多樣性而設(shè)置的不同說法。

5.4 達(dá)人用戶視角的智能素材庫

最后簡單介紹下提供給達(dá)人用的智能素材庫界面。如下圖所示,達(dá)人在給商品寫推薦理由時,通過素材庫可以獲得商品相關(guān)的靜態(tài)和動態(tài)信息,比如品牌Slogan/品牌故事,用戶關(guān)心的問題、評價熱點(diǎn)、詳情頁關(guān)鍵信息(數(shù)據(jù)由第七章節(jié)介紹抽取式詳情頁內(nèi)容生成支持)等,可以快速的建立對商品多維度理解。這樣一方面加快了達(dá)人寫作速度,另外也更好的為智能內(nèi)容寫手提供素材。

六、Data2Seq模型

該部分是基于深度學(xué)習(xí)的端到端解決方案,也是智能內(nèi)容生成中最為核心的部分。本章節(jié)將按AI三駕馬車:數(shù)據(jù)、算法和計(jì)算三個角度依次展開,其中計(jì)算方面的優(yōu)化我們和PAI-Tensorflow同學(xué)8月初開始立項(xiàng)合作優(yōu)化,本文只關(guān)注在數(shù)據(jù)和算法部分,有關(guān)計(jì)算優(yōu)化的詳細(xì)介紹請關(guān)注后續(xù)九豐和慕琢的項(xiàng)目分享。

6.1 數(shù)據(jù)訓(xùn)練數(shù)據(jù)的數(shù)量和質(zhì)量的對深度學(xué)習(xí)類任務(wù)的重要性就無須贅述了。有足夠大數(shù)據(jù)量且質(zhì)量足夠好的訓(xùn)練數(shù)據(jù)之后,簡單模型也足以取得相當(dāng)好的baseline,數(shù)據(jù)也是一切復(fù)雜模型的基礎(chǔ)。具體介紹下我們在商品單品推薦理由訓(xùn)練數(shù)據(jù)的處理方法:

訓(xùn)練數(shù)據(jù)量:我們通過官方渠道背書和優(yōu)質(zhì)達(dá)人的數(shù)據(jù)擴(kuò)展訓(xùn)練數(shù)據(jù)。

官方渠道:有好貨、極有家、淘寶頭條、手淘行業(yè)其他卡片、清單商品推薦理由等。

優(yōu)質(zhì)達(dá)人:實(shí)際上,很多達(dá)人是不停在平臺生成內(nèi)容的,但生產(chǎn)的內(nèi)容中很多并沒有被官方渠道選中,也或許他們生產(chǎn)內(nèi)容的動力不僅在于投稿也在于粉絲關(guān)注,我們根據(jù)達(dá)人的粉絲、歷史招投稿信息等圈中了優(yōu)質(zhì)達(dá)人,把這些達(dá)人每天的單品推薦理由內(nèi)容設(shè)置為候選集。這些數(shù)據(jù)的增量還是非常可觀的,貢獻(xiàn)了約一半的訓(xùn)練數(shù)據(jù)量。

訓(xùn)練數(shù)據(jù)質(zhì)量:事實(shí)上,原始訓(xùn)練數(shù)據(jù)的質(zhì)量遠(yuǎn)沒有那么理想,除了一些語法錯誤外,有很多推薦理由甚至是商品原始標(biāo)題,特別是優(yōu)質(zhì)達(dá)人來源數(shù)據(jù)質(zhì)量更是非常低。因此這個部分我們開發(fā)了比較系統(tǒng)化的插件式的Evaluator模型,用于處理和過濾訓(xùn)練數(shù)據(jù),主要包括預(yù)處理和判別模塊。

預(yù)處理:基礎(chǔ)的繁簡轉(zhuǎn)換、大小寫歸一之外,對語法或冗余字符也做了過濾處理。

判別:判別模塊我們主要解決堆砌重復(fù)問題、badPattern、低置信語法和標(biāo)點(diǎn)規(guī)范等維度問題。

最終我們使用的有效可用的推薦理由訓(xùn)練數(shù)據(jù)量超過1600w,基本已經(jīng)達(dá)到了目前淘寶平臺可用訓(xùn)練數(shù)據(jù)的極限。6.2 模型Data2Seq領(lǐng)域近年的發(fā)展主要得益于參考NMT領(lǐng)域的突破,下圖是NMT中標(biāo)準(zhǔn)的Encoder-Decoder結(jié)構(gòu),在Encoder階段把輸入序列的信息通過RNN_forward encoder到固定向量h_|F|中,decoder階段根據(jù)h_|F|逐個解碼得到輸出序列。

但是標(biāo)準(zhǔn)的Encoder-Decoder結(jié)構(gòu)中把源端信息都通過RNN_forward encoder到固定大小的向量中,但RNN本身存在長距離依賴問題,且把任意長度句子都encoder到固定長度會導(dǎo)致句子太長時無法充分表達(dá)源文本信息,句子太短時不但浪費(fèi)存儲和計(jì)算資源,而且容易過擬合。顯然這時候該Attention登場了,Attention機(jī)制允許解碼時動態(tài)搜索源文本中與預(yù)測目標(biāo)詞相關(guān)的部分,很好的解決了上面的問題。下圖就是大家都比較熟悉的Bahdanau-Attention對齊模型的算法原理和對齊效果示意圖,不展開介紹了。

我們的Data2Seq(D2S)模型,雖然主要借鑒與NMT的Attention-based Seq2Seq模型,核心的框架同樣也是Encoder-Decoder,但深入思考下兩個任務(wù)的特點(diǎn),我們不難發(fā)現(xiàn)D2S與NMT有著比較大的差異,也正是這些差異決定了我們不能只是簡單的拿NMT領(lǐng)域適用的Encoder-Decoder結(jié)構(gòu)去理解D2S模型。下面是NMT和D2S對比圖:

NMT相對D2S的最大不同在于它的任務(wù)中輸入輸出基本可以理解為一一對應(yīng)的,且是可逆的。比如上圖中中譯英的例子,"團(tuán)結(jié)就是力量"和"Union is strength"之間是可逆的,也就意味著他們在一個虛擬的“世界語”語義空間共享同一個編碼,這也是為什么NMT可以做遷移學(xué)習(xí)的一個重要原因,即有了中譯英和中譯法可以很容易翻譯出英譯法。

而在D2S任務(wù)中,即便是完全相同的輸入,不同的輸出都可能是對的,也就是說輸入輸出是一對多的,顯然輸出文本不可能再還原回輸入文本了。這個很容易理解,比如同一商品,不同的達(dá)人選擇的賣點(diǎn)和最終介紹的文本可以完全不同,但都可能是正確的。從這個角度出發(fā),在輸入端額外設(shè)計(jì)控制條件是由D2S模型一對多的特點(diǎn)所決定的,甚至是必須的,模型最終因此擁有的控制能力則是果而非因,絕非為了控制而控制。從另外一個角度去理解,Control部分實(shí)際對應(yīng)的是第三部分講的傳統(tǒng)NLG流程里面的Communicative Goal模塊。

所以基于以上考慮,我們提出了把整個D2S模型劃分為Data/Seq/Control三個部分:

Data端:涉及數(shù)據(jù)的表達(dá)和建模的方式,也就是素材庫內(nèi)容如何體現(xiàn)。這部分會介紹下Data端的Encoder方法,重點(diǎn)介紹下我們在數(shù)據(jù)端的測試的三種模式以及動態(tài)數(shù)據(jù)的訓(xùn)練。

Seq端:核心在于文本序列生成能力,一般來講,最簡單的Seq端就是N-Gram模型。Seq端指的是基于RNN(或其變形LSTM/GRU)的語言模型,我們在這里可以玩的是decoder設(shè)計(jì)更復(fù)雜或更精巧的模型、使用更多更準(zhǔn)確的訓(xùn)練數(shù)據(jù),使得模型具備強(qiáng)大的表達(dá)能力。主要會介紹下深度殘差連接網(wǎng)絡(luò)的應(yīng)用。

Control端:這也是D2S中特有且非常重要的部分,上文也提到了生成一段流暢的話向來不是難點(diǎn),重要的是如何從不同維度精準(zhǔn)的控制Seq端的生成,分別介紹下重復(fù)問題控制、結(jié)果正確性、確保主題相關(guān)、長度控制、風(fēng)格控制、賣點(diǎn)選擇控制、多樣性控制等,這也是NLG領(lǐng)域研究的熱點(diǎn)所在。實(shí)現(xiàn)這樣的控制,既需要在模型的Encoder和Decoder端同時發(fā)力,同時需要在解碼預(yù)測同時控制。

下圖是D2S模型的整體結(jié)構(gòu),我們實(shí)際采用的模型是這個模型結(jié)構(gòu)的子集,encoder端分為兩部分,encoder的方法包括RNN/CNN和簡單的Embedding,decoder端生成文本時通過Attention機(jī)制進(jìn)行賣點(diǎn)選擇,控制信號在DecoderRnn的輸入端和預(yù)測下一次詞的Softmax層之前參與控制。接下來按照Data/Seq/Control端的順序分別介紹下我們的工作,最后再簡單介紹下我們在清單生成方面的工作。

D2S模型整體結(jié)構(gòu)

6.2.1 Data端

6.2.1.1 Data的表示如下圖中所示,D2S中輸入數(shù)據(jù)(即一個"賣點(diǎn)"或"Topic")通過Key和Value兩個field來進(jìn)行共同進(jìn)行表達(dá)。其中KEY是知識庫的詞條類型ID,即KID,Value是利用知識圖譜里面的同義詞知識歸一之后的詞條ID。比如商品原始文本有"Chanel",對應(yīng)模型的輸入topic為“KID=品牌;VAULE=香奈兒”。且除了KID識別和同義歸一之外,我們還利用知識圖譜本身的擴(kuò)展信息擴(kuò)充了商品Topic的覆蓋,比如對于對于香奈兒,我們還會擴(kuò)展出“品牌產(chǎn)地:法國”“品牌檔次:奢侈品”等信息,以此豐富我們的輸入信息。

KID識別和同義歸一的處理則有兩個好處,首先KID的引入賦予了模型很強(qiáng)的泛化能力,能夠起到類似于"模板"的功能,對于一個稀有的Value,我們能夠通過KID知道該如何表達(dá)和描述,后面將介紹的動態(tài)信息的訓(xùn)練中也正是借助KID實(shí)現(xiàn)的,其實(shí)本質(zhì)上其實(shí)也是實(shí)現(xiàn)了Copy機(jī)制;其次,Value經(jīng)過同義詞歸一之后,噪音數(shù)據(jù)更少,使得模型學(xué)起來更加容易,因?yàn)镈ata端更關(guān)心的是語義signal而非表達(dá)多樣性,語義歸一的必要性自然是非常必要的選擇。

在模型內(nèi)的具體語義表達(dá)方面,topic的Key和Value分別有一個獨(dú)立的EmbeddingDict分別獲得其語義維度的表示,兩者concat起來得到的是模型內(nèi)topic的表示。而對于整個輸入的表示,我們共對比測試了三種模式的encoder方法:RNN、CNN和Concat,最終使用的方案是Concat模式,即只用topic的Key和Value的Embedding語義編碼作為encoder階段的輸出,輸入端不用RNN或CNN提取feature。

Encoder用的Concat模式,乍聽起來比較奇怪,這里面除了降低計(jì)算復(fù)雜度的考慮之外,最重要的原因是RNN和CNN本質(zhì)上都是通過捕獲局部相關(guān)性而起作用的,具體到自然語言領(lǐng)域,提取的是類似n-gram的信息。然而在Data2Seq模型的設(shè)計(jì)中,事實(shí)上不同的topic之間是獨(dú)立的且無序的,而CNN和RNN模型是無法在這樣的無序的假設(shè)條件下work的,否則對于同一輸入,擾亂順序后捕獲的語義表示就變了,顯然不是我們希望的。實(shí)際數(shù)據(jù)的測試也印證了我們的假設(shè),即便在我們不太認(rèn)可的ROUGE指標(biāo)上和mle loss,RNN模型并沒有體現(xiàn)明顯優(yōu)勢,具體的實(shí)驗(yàn)數(shù)據(jù)還需要重新回歸。6.2.1.2 Data的內(nèi)容和結(jié)構(gòu)

解決了Data的表示后,Data包含哪些內(nèi)容,采用什么結(jié)構(gòu)就是亟待要解決的問題了。我們參考了類似百度寫詩的paper的做法,設(shè)計(jì)了一個Planning-Based的D2S模型。百度寫詩的訓(xùn)練數(shù)據(jù)見下圖,其直接在目標(biāo)內(nèi)容(即詩句)中用textRank方法提取KeyWord(下圖第一列)作為Data部分,之前的詩句作為Context進(jìn)行訓(xùn)練。在預(yù)測階段(下面第二張圖)用戶的Query經(jīng)過Keyword Extraction & Keyword Expansion階段后規(guī)劃處四個Keyword,然后逐步生成每行詩。

這種結(jié)構(gòu)看起來還是很通暢的,好處是可以借助知識圖譜進(jìn)行Keyword擴(kuò)展,如下圖所示,輸入“奧巴馬”也可以規(guī)劃“西風(fēng)/巴馬”“總統(tǒng)”“美國”“民主”。但這種方法存在最大的問題也恰恰是Planning的難度很高,另外詩歌場景前后兩句盡管有關(guān)聯(lián),本質(zhì)上還是有可以一定程度斷開的獨(dú)立的,所以不管是百度寫詩還是微軟小冰寫詩都可以用這樣的結(jié)構(gòu),但我們的商品推薦理由則是連續(xù)的一段話,不能在這個層面運(yùn)用Planning-Based的方法,但可以嘗試比如在段落粒度運(yùn)用Planning。

具體實(shí)踐中我們發(fā)現(xiàn),Planning-Based的方法好處自然是我們可以任意的控制topic,但存在的具體的問題第一是規(guī)劃出的topic之間的搭配會導(dǎo)致較多不通順的case;另外就是這種模式只能學(xué)到直接的關(guān)系,比如輸入topic是“五分褲”,生成的文本基本很難出現(xiàn)“半褲”這樣的相近詞,也就是模型有點(diǎn)“直”。為了解決這個問題,下圖是后來我們在Data端的內(nèi)容和結(jié)構(gòu)做的設(shè)計(jì):

如上圖,DATA部分總共有兩個來源,一個是圖中藍(lán)色部分來自商品理解后的結(jié)果,另一個是來自目標(biāo)文本內(nèi)容理解后的結(jié)果,且兩部分有一定的交集。Planning-Base mode就是我們前面講的,Data結(jié)構(gòu)分成兩部分,一部分是核心topics,另一部分是context topics;第二三種模式都是只有一層扁平的輸入,區(qū)別是Item-Topics mode中topic全部來源于商品本身,而All-Topics mode則是匯聚了商品和目標(biāo)的結(jié)果。

最終在模型中選擇的是All-Topics mode,預(yù)測中用Item-Topics做預(yù)測。而終沒有用Item-Topics mode原因除了mle loss下降更明顯外,主要的原因是我們分析了下,實(shí)際上內(nèi)容里面的topics和商品的topics交集遠(yuǎn)沒有我們想象的高,大約只有20%左右,這就意味著模型會學(xué)到?jīng)]有賣點(diǎn)A但是還是寫出賣點(diǎn)A相關(guān)文本的模式,這種模式下就會導(dǎo)致很多生成的內(nèi)容和源賣點(diǎn)不匹配的case。而內(nèi)容提取的topics不完全存在于商品topics中是很好理解的,有些是達(dá)人通過圖片或很難提取信息的詳情頁獲取的,有差集是很正常的。

All-Topics mode最大貢獻(xiàn)在于確保預(yù)測結(jié)果的正確性,除此之外,這種方式相對Planning-Based mode最大的優(yōu)勢在于賦予了模型賣點(diǎn)選擇的能力,下圖是我們8月份在搜索-挑尖貨場景全量的一句話導(dǎo)購短句的例子,同樣是短裙類目的商品,仔細(xì)看下四個商品的導(dǎo)購短句,每個商品被提到的賣點(diǎn)都還是很有其獨(dú)特性的。

6.2.1.3 動態(tài)Data的訓(xùn)練以上的針對的主要是靜態(tài)數(shù)據(jù)訓(xùn)練相關(guān)的設(shè)計(jì),而前文已講到,D2S模型的一個很重要point是通過動態(tài)數(shù)據(jù)獲得更多的信息量,寫的更為干貨。但動態(tài)數(shù)據(jù)本身的樣本標(biāo)注其實(shí)還是比較困難的,接下來以"流行趨勢"這類動態(tài)數(shù)據(jù)的訓(xùn)練為例,簡單介紹下我們的做法。

訓(xùn)練階段我們先通過先驗(yàn)規(guī)則和W2V語義相似度挖掘出流行趨勢相關(guān)的詞,比如”流行“ ”大熱“ ”熱門“等,然后將其所在短句最可能的賣點(diǎn)原來的KID置換成”KID=流行“,在預(yù)測階段則對從數(shù)據(jù)中挖掘到的流行的賣點(diǎn),將其KID替換成”流行“,生成的數(shù)據(jù)效果如下所示:

對于第一個商品我們將“KID=顏色 Value=深棕色“的KID替換成“KID=流行”之后,生成的單品推薦理由:“今年很流行這種深棕色的針織衫,很有女人味的一款套裝,穿在身上很顯身材,而且還能很好的拉長腿部線條,很顯高哦 ?!本头浅?zhǔn)確的描述了深棕色的流行趨勢,做到了言之有據(jù),且有關(guān)流行趨勢的說法還是比較豐富的。

當(dāng)然完全的把KID替換掉會導(dǎo)致商品丟失原始KID信息缺失,正在補(bǔ)一個采用雙KID相加后得到新KID方式的實(shí)驗(yàn)。6.2.2 Seq端

6.2.2.1 基礎(chǔ)的單層RNN-語言模型簡單intro一下基礎(chǔ)的RNN-Language Model。語言模型本身是在計(jì)算一個句子E=e_1,e_2,...e_T(e_t是其中第t個詞)是自然語言的概率,語言模型的目標(biāo)是

,不難看出語言模型的核心問題可以轉(zhuǎn)化成預(yù)測 P(e_t|e_1~e_t-1),即根據(jù)e_1~e_t-1預(yù)估e_t,最簡單是基于統(tǒng)計(jì)的n-gram LM(Language Model),即預(yù)估e_t時只考慮前面n-1個詞。下圖是基于Nerual Network的tri-gram LM,顯然在預(yù)估e_t時值需要考慮e_t-1, e_t-2即可。我們經(jīng)常用的Word2Vec正是NN-LM的lookup表的一個中間產(chǎn)物。

但顯然NN-LM無法擺脫他本質(zhì)是n-gram模型的缺陷,即建模的長度有限最多只能使用前n-1個詞,且在上圖的concat模式下加大n個數(shù)量,由于前面各個位置的權(quán)重是一樣的反而會導(dǎo)致模型學(xué)習(xí)效果下降。實(shí)際上自然語言中,長距離依賴的情況是非常常見的,比如下圖的例子中,預(yù)估"himself"和"herself"時,顯然分別要依賴于句子最前面的"He"和"She"。

下圖便是RNN-LM的公式,m_t是第t-1個詞的Embedding結(jié)果,與NN-LM不同的是,RNN-LM的輸入只有一個,原因是前面的信息都融入到h_t-1中了,這樣就不需要直接把更靠前的序列作為輸入了。當(dāng)然RNN本身存在梯度消失問題,內(nèi)容生成模型的decoder端實(shí)際使用的是RNN的一個variant LSTM。

6.2.2.2 多層殘差連接網(wǎng)絡(luò)由于我們使用的訓(xùn)練數(shù)據(jù)量比較大,能夠支撐我們在模型的decoder階段進(jìn)行復(fù)雜模型、大容量模型的嘗試。我們再這方面的主要嘗試從網(wǎng)絡(luò)寬度、網(wǎng)絡(luò)深度兩個角度出發(fā)。網(wǎng)絡(luò)寬度方面我們主要測試的是增加num_hidden size,效果還是比較明顯的,網(wǎng)絡(luò)深度方面我們測試的是下圖中的殘差連接方式的stacked RNN。

以下是不同版本的MLE loss上的變化,單層網(wǎng)絡(luò)-殘差連接方式loss下降說明在預(yù)估前一個詞時,直接將上一次詞作為輸入是有收益的,增加網(wǎng)絡(luò)寬度和深度loss都能有所降低,但受限于模型容量問題,目前在16G的單卡GPU只能最大測試到num_hidden=100,4層的殘差網(wǎng)絡(luò)。

這個部分計(jì)劃嘗試下Densely Connected深層網(wǎng)絡(luò)和Recurrent Highway Networks,受其他項(xiàng)目優(yōu)先級的擠壓暫時先hold住了,待后續(xù)實(shí)驗(yàn)后再補(bǔ)充。6.2.2.3 雙層RNN網(wǎng)絡(luò)的嘗試我們在Seq的網(wǎng)絡(luò)結(jié)構(gòu)方面做了下雙層RNN雙層Attention的嘗試,網(wǎng)絡(luò)結(jié)構(gòu)圖見下圖,核心點(diǎn)是在拆分出句子維度和詞維度的兩層RNN網(wǎng)絡(luò),同樣的在賣點(diǎn)選擇方面也是雙層Attention共同作用。之所以嘗試雙層RNN的原因是希望模型有更好的能在長篇幅寫作能力,但暫時的實(shí)驗(yàn)效果并不是很明顯暫時hold住了,分析主要原因是推薦理由的訓(xùn)練數(shù)據(jù)不像詩歌類天然有好的斷句結(jié)果,達(dá)人的內(nèi)容的斷句質(zhì)量很差,對效果影響很大。

6.2.2.4 Copy機(jī)制Copy機(jī)制本質(zhì)上是在combine生成式和抽取式模型。在這方面學(xué)界有很多的研究涉及該領(lǐng)域,主要為了解決OOV(Out Of Vocabulary)詞的問題。我們使用的做法把Pointer和Generator分離單獨(dú)訓(xùn)練一個Pointer/Generator swich概率網(wǎng)絡(luò),另外一種套路如上面的整體框圖所示,把源端的Attention向量的概率和每個詞的概率用P/G值加和求max,這種方法的原理是更合理,但訓(xùn)練起來非常慢,實(shí)際并沒有采用。

事實(shí)上,我們訓(xùn)練的數(shù)據(jù)足夠充分、網(wǎng)絡(luò)比較大的情況下,詞匯粒度OOV帶來的問題比較少,詞粒度收益測試并不明顯。而在Copy機(jī)制更深層次的考慮方面,我們更想嘗試的是如何把抽取式的內(nèi)容生成和生成式內(nèi)容生成有機(jī)的結(jié)合起來。比如我們分析了下達(dá)人的推薦理由數(shù)據(jù)和詳情頁句子的交集還是比較高的,也就是說達(dá)人在寫內(nèi)容時候也是”參考詳情頁的內(nèi)容“,這樣的”參考“動作就是Copy機(jī)制需要承載的,遠(yuǎn)不是詞匯粒度的Copy而是句子或片段粒度的Copy。相信如果能解決好這個問題,對內(nèi)容生成的技術(shù)領(lǐng)域的貢獻(xiàn)還是比較大的,這部分的工作我們還在推進(jìn)中,在這里暫時留白后續(xù)有結(jié)果后補(bǔ)充下。6.2.3 Control端

6.2.3.1 軟硬結(jié)合的控制策略在控制端,需要完成對目標(biāo)文本的控制,控制的策略總體上分為兩類:Soft類方法,即設(shè)計(jì)機(jī)制讓模型自己學(xué)習(xí)到對目標(biāo)的方法;Hard類方法,即在Decoder過程中進(jìn)行強(qiáng)干預(yù)。Soft類方法的好處是更能獲得一個整體效果比較高的提升,壞處是很難確保解決干凈。其實(shí)采用軟硬結(jié)合的方式做控制顯然是一個不需要過多論證的問題,道理我們都懂,重要的在于方法論。

我們在具體的控制策略上主要依賴InputFeeding機(jī)制和預(yù)測的Decoder階段Evaluator模型兩種方法。

a). Soft方法:Inform機(jī)制

由于各個細(xì)分問題的不同,在Soft方法上難有比較完全一致的的方法,但總歸大致的思路還是定義為InputForm機(jī)制,具體的做法如下圖所示,把控制信號在LSTM的輸入端和預(yù)估下一個詞的softmax層的輸入端生效,之所以在這兩個端同時生效還是有邏輯的:我們相信在RNN輸入能夠使得模型一定程度上感知目標(biāo)的動態(tài)完成程度,Softmax端的輸入能夠讓模型始終感知最終目標(biāo)是什么,實(shí)際的效果也驗(yàn)證了這種方法的有效性。

b). Hard方法:Evaluator機(jī)制

在訓(xùn)練數(shù)據(jù)的質(zhì)量提升部分就提到過Evaluator模型,和這里是同一個模型。所謂Evaluator機(jī)制的Hard方法指的是在模型預(yù)測階段邊預(yù)測邊評估。

先簡單intro下Decoder過程:文本生成的的預(yù)測過程是word by word的方式進(jìn)行的,每一步生成一個詞,面臨的選擇其實(shí)是整個詞匯空間,一般詞匯大小要到10w量級,也就是每一步解碼都有10w中選擇,如果平均序列長度n,最終候選序列也要10w的n次方可能,計(jì)算和存儲上是絕不可行的。實(shí)際常用的解碼方法是beam_search,每一步保留最優(yōu)的前M個最大概率序列,本質(zhì)上式壓縮版的維特比解碼。下圖所示的beam_search的beam_size=2,即每一步保留最佳的兩個序列,其他序列全部被剪枝掉(即下圖中X號)。

beam_search剪枝的過程依賴的模型控制的Soft機(jī)制和LM共同作用的概率,我們設(shè)計(jì)的Evaluator機(jī)制工作在同一個維度。具體的,在評估候選序列是否保留時,除了繼續(xù)考慮模型輸出的概率之外,額外增加下圖公式紅色部分的fuction_evaluator,函數(shù)輸入為已生成序列 e_1~t-1,具體的評估邏輯就取決于不同的控制目標(biāo),就比較有操作空間了。

6.2.3.2 重復(fù)問題控制重復(fù)問題在內(nèi)容生成領(lǐng)域是一個比較常見的問題,問題的根本來源在于經(jīng)典的Attention機(jī)制每次都是獨(dú)立的進(jìn)行Attention計(jì)算,沒有考慮歷史已經(jīng)生成的序列或Attention歷史,顯然是一種次優(yōu)的做法。Attention機(jī)制帶來的這個坑倒是給學(xué)界的研究帶來了不小的空間,簡單介紹下我們解決重復(fù)問題的機(jī)制,自然是Soft和Hard并行解決的。

Soft的方法主要是在Data端避免重復(fù)注意和在Seq端避免重復(fù)生成兩種套路。

a). Data端避免重復(fù)Attention:Coverage機(jī)制、Intra-temporal attention機(jī)制

Coverage概念來源于傳統(tǒng)機(jī)器翻譯方法里面保留已經(jīng)覆蓋翻譯的詞記錄的概念。我們采用的是一種”間接“的解決方法,如下圖公式,思路是保存下生成過程中已有的Attention權(quán)重向量,作為生成下一個詞的Attention計(jì)算的輸入,讓模型自己學(xué)習(xí)到避免重復(fù)的條件。NMT中還會增加一個Coverage loss,避免”過翻譯“和“欠翻譯”,需要注意的是內(nèi)容生成中只需要避免”過翻譯“即可。

另外一種比較直接的方法就是直接根據(jù)已有的累計(jì)Attention weight對計(jì)算Attention的Softmax層前的結(jié)果降權(quán),方法相對比較粗暴,并沒有對比測試。

b).Seq端避免重復(fù)生成:Intra-decoder attention機(jī)制

除了Data端避免重復(fù)注意外,對已生成的序列信息同樣需要inform模型,避免重復(fù)生成,我們設(shè)計(jì)的整體框架圖中的的DecContext就是在解決這個問題。

c).Hard方法:三個維度的重復(fù)檢測

而Hard方法則是比較簡單粗暴可依賴,我們對已生成序列進(jìn)行賣點(diǎn)維度重復(fù)檢測、常用連接詞重復(fù)檢測和n-gram重復(fù)檢測三部分,命中這三種任何一種重復(fù)檢測的序列的score將設(shè)置的非常低。實(shí)踐中,這種方法對我們整體的重復(fù)問題的解決貢獻(xiàn)是最大的。6.2.3.3 語義正確性控制語義正確性的控制的soft方法在前文已經(jīng)提到,就是在訓(xùn)練模式上采用All-Topics模式,讓模型自己去學(xué)到賣點(diǎn)相關(guān)文本的生成需要在Data端有據(jù)可依的強(qiáng)條件,這點(diǎn)對我們語義正確性的貢獻(xiàn)還是很大的。

另外一個非常重要的解決語義錯誤問題的就是基于知識圖譜的Evaluator模型。具體的過程見下圖,知識圖譜中存儲有同義關(guān)系、上下位關(guān)系、沖突關(guān)系等多種類型的關(guān)系數(shù)據(jù),在beamSearch解碼過程中,候選詞和n-gram粒度的詞和源端進(jìn)行校驗(yàn),如果出現(xiàn)沖突關(guān)系則強(qiáng)制不出現(xiàn),比如下圖中的候選token ”夏天“和Data端的”春秋“沖突關(guān)系,而比如是上位關(guān)系,下圖Data端有”連衣裙“,生成”裙子“則是可以的,反之則不行。

利用知識圖譜解決語義正確的一個好處是可以引入其他數(shù)據(jù)源生成的信息進(jìn)行校驗(yàn),避免受數(shù)據(jù)偏差影響;另一個好處是實(shí)際的線上系統(tǒng)生效難免遇到badcase,利用補(bǔ)充知識的方式快速有效干預(yù)線上case實(shí)現(xiàn)一個很好的閉環(huán),是必須的。

具體的實(shí)踐中,我們與知識圖譜中的平臺治理業(yè)務(wù)維護(hù)的違禁詞打通,因?yàn)槟P蜕蓛?nèi)容是平臺背書,避免模型生成違禁信息,并且因?yàn)榭陀^屬性如品牌、材質(zhì)、功能功效、季節(jié)、顏色的錯誤比起主觀屬性如風(fēng)格等的錯誤影響更大,我們重點(diǎn)對客觀屬性的正確性問題進(jìn)行了線下評測和知識補(bǔ)全。

6.2.3.4 品類相關(guān)控制品類相關(guān)性的控制我們單獨(dú)做了處理,在LSTM的輸入端和Softmax輸入端分別把葉子類目ID的signal輸入給模型,讓模型自己去學(xué)習(xí)到這些相關(guān)性,直接在loss上做處理反而效果不理想,也未必必要。

下圖分別背景墻瓷磚和女裝套裝兩個葉子類目的商品,topics中同樣包含”簡約“,且描述都是”簡約而不簡單“的情況下,后面跟的描述則分別是”為你的家...“和”更具時髦感“則是受類目的影響較多。嚴(yán)格的情況下應(yīng)該對比有無類目控制的效果,實(shí)驗(yàn)成本比較高待后續(xù)補(bǔ)一下。

6.2.3.5 長度控制長度控制的方法和品類相關(guān)控制套路是一樣的。我們采用的是商品&內(nèi)容理解后的token作為詞,長度的控制是也是在”token“粒度。雖然沒有精確的統(tǒng)計(jì)過,但從我們看的case數(shù)據(jù)看,對token長度的控制是非常精確,且不是簡單的截?cái)唷O聢D是一個商品長度控制在10/20/30/40/50 token的范例,顯然隨著長度變長所選擇賣點(diǎn)的數(shù)量也逐漸在增加。

6.2.3.6 風(fēng)格控制

這里的風(fēng)格控制并不是嚴(yán)格意義上單純的風(fēng)格控制,準(zhǔn)確的說應(yīng)該是賣點(diǎn)選擇和風(fēng)格綜合的控制。原因是我們是依靠達(dá)人的UserID來實(shí)現(xiàn)風(fēng)格控制的,不同達(dá)人的寫作除了風(fēng)格不同外,選取的賣點(diǎn)可能不同。具體做法是:訓(xùn)練階段將文章數(shù)量超過100篇以上的達(dá)人ID Embedding到20維的向量空間中;預(yù)測階段用Kmeans方法聚合出不同簇的UserID代表不同風(fēng)格。

下圖是服飾類目最好的達(dá)人”追夢的小丫“和其Embedding距離最遠(yuǎn)的簇中心”潮流匯bing“的同一商品的推薦理由對比,文本風(fēng)格其實(shí)是一個很難量化的概念,從我們統(tǒng)計(jì)數(shù)據(jù)看,以”追夢的小丫“為UserID生成的內(nèi)容以”這款“作為開頭推薦理由比例只有20%,而”潮流匯bing“的這一數(shù)據(jù)則達(dá)到了82%。以此管中窺豹,認(rèn)為兩者的風(fēng)格的差異還是體現(xiàn)出來了。且從下面的文本對比看,”追夢的小丫“文風(fēng)似乎更有渲染力一些。

我們認(rèn)為行業(yè)的最好達(dá)人生成內(nèi)容最有吸引力,所以我們默認(rèn)使用其UserID生成推薦理由。除此之外,我們同樣借用不同簇中心用戶賣點(diǎn)選擇的差異,用在清單維度多樣性上。

6.2.3.7 賣點(diǎn)選擇控制之所以需要做賣點(diǎn)選擇控制,主要用在下一小節(jié)的智能清單中。在All-Topics的模式下,模型的賣點(diǎn)選擇能力是通過Attention機(jī)制承載的,賣點(diǎn)的數(shù)量基本和長度控制的長度比較相關(guān)。

具體的實(shí)現(xiàn)控制的方法上,我們嘗試在訓(xùn)練階段有選擇的進(jìn)行0/1標(biāo)注是否被選擇到,并把這種先驗(yàn)的選擇輸入給模型的Attention計(jì)算部分,預(yù)測時通過0/1權(quán)重干預(yù),效果還是比較直接。另一個就是對于單純的不寫某個賣點(diǎn)的需求,我們采用的是概率Drop機(jī)制,按概率強(qiáng)制從預(yù)測Data中去掉即可。6.2.3.8 多樣性控制詳細(xì)內(nèi)容合并到清單多樣性中一起闡述。6.2.4 智能清單生成清單一般包括10-20個商品,核心依賴于單品推薦理由能力,但相對來講需要額外考慮多個商品間內(nèi)容的多樣性和一致性,且還有獨(dú)特的清單標(biāo)題生成和清單選品。目前我們的工作主要focus在解決清單多樣性和清單標(biāo)題生成問題。6.2.4.1 清單多樣性清單多樣性主要解決的是生成多個商品推薦理由間的重復(fù)問題,解決這個問題的關(guān)鍵在于多商品間全局優(yōu)化。

我們采用的方法是預(yù)測時把相同清單的商品放到同一個batch中,batch_size即為清單商品數(shù),然后在Evaluator模型中維護(hù)當(dāng)前清單維度、所在類目維度在賣點(diǎn)、常用連接詞、N-Gram維度的統(tǒng)計(jì)計(jì)數(shù),然后根據(jù)出現(xiàn)次數(shù)以相應(yīng)概率drop掉某些token,具體的概率計(jì)算方法就是經(jīng)驗(yàn)值了。

再好好思考下為什么模型多個商品寫作時會出現(xiàn)重復(fù)問題,根本原因在于解碼預(yù)測時采用的beam_search本質(zhì)上選擇的是概率最大的序列,是不考慮多樣性的,這就難怪會導(dǎo)致模型生成的結(jié)果在賣點(diǎn)、句式上有些雷同了。而另外一種依賴概率的random_search解碼方法在語句通順的效果卻不慎理想,因此在beam_search中輔以多維度進(jìn)行概率Drop的思路自然是合理的。

我們在實(shí)踐過程中發(fā)現(xiàn),D2S模型相同句式的case比較多,比如”讓“這個詞用的頻率最高,我們做了一個強(qiáng)制不生成”讓“出現(xiàn)的實(shí)驗(yàn),見下圖。從對比可見,即便沒有最高頻的”讓“句式,模型仍然可以找到其他說法,比如把”讓人“換成”給人“,甚至直接換一個說法把”讓人愛不釋手“換成”深受廣大消費(fèi)者人的喜愛“。因此這樣的多樣性控制策略我們不僅在清單中生效,同樣在單品中進(jìn)行多樣性控制(即6.2.3.8部分)。

6.2.4.2 清單一致性清單一致性目的在于保持清單內(nèi)內(nèi)容和風(fēng)格的連貫,這部分的工作剛剛開始展開,后續(xù)有實(shí)驗(yàn)結(jié)論再回來填坑。6.2.4.3 清單標(biāo)題生成清單標(biāo)題的模型基本復(fù)用商品推薦理由的D2S框架,不同的是由于訓(xùn)練數(shù)據(jù)量遠(yuǎn)比推薦理由少,模型的復(fù)雜度下降了一個level。訓(xùn)練數(shù)據(jù)主要來源于達(dá)人的清單和頭條的標(biāo)題,Data是清單和頭條覆蓋商品的Topics,預(yù)測階段采用清單覆蓋商品的Topics作為輸入。清單標(biāo)題的風(fēng)格和推薦理由還是完全不同的,更加的寫意,隨性,富有渲染力!下圖是生成的清單標(biāo)題數(shù)據(jù)貼出來感受下。

6.2.4.4 清單選品目前的選品策略還比較基礎(chǔ),因?yàn)槲覀兒芏嗲鍐问窃谒阉鲌鼍吧?,目前主要依賴query-category-user_tag維度的交叉,結(jié)合場景的底層商品池完成清單選品。當(dāng)然目前的選品策略中還有一個統(tǒng)一的優(yōu)質(zhì)商家的優(yōu)質(zhì)商品。同樣的暫不展開闡述了。6.3 計(jì)算D2S模型是基于PAI-Tensorflow平臺運(yùn)行的,模型比較重訓(xùn)練起來也是很消耗資源,為了加速迭代我們8月初開始和PAI-Tensorflow團(tuán)隊(duì)開展計(jì)算優(yōu)化的合作。分別在本地、分布式和預(yù)測進(jìn)行優(yōu)化。本地優(yōu)化累計(jì)提升了超過10倍以上的性能,意味著原本一個月的計(jì)算量,3天就搞定了,對D2S的快速迭代很是重要。

目前還在最后的優(yōu)化分布式性能,具體的細(xì)節(jié)還請期待九豐和穆琢的分享,后續(xù)補(bǔ)充鏈接。

七、詳情頁抽取模型

D2S模型是生成式的內(nèi)容生成模型,我們在上文的Copy機(jī)制部分也提到,達(dá)人寫作過程中其實(shí)也是邊”造“邊”抄“的過程,”抄寫“的來源大部分是商品詳情頁。商品詳情頁本身是一個寶庫,且是商品的詳細(xì)準(zhǔn)確描述,比如下圖所示的詳情頁顯然如果都是非常好的推薦理由來源,最終目標(biāo)是希望能夠融合抽取式和生成式兩種模式,現(xiàn)階段還是分離的,接下來簡單介紹下單獨(dú)的詳情頁抽取模型。

7.1 Boostrap方式的模型訓(xùn)練詳情抽取模型本身可以抽象為文本分類問題,文本分類問題和模型相對都比較成熟了不過多展開,核心問題在于label的設(shè)置方式重點(diǎn)介紹下。

我們采用的方式是是先用達(dá)人的推薦理由作為正樣本,利用規(guī)則篩選負(fù)樣本,用Deep模型訓(xùn)練一個基礎(chǔ)版本模型;然后再利用Deep模型的預(yù)測結(jié)果的高置信度的預(yù)測結(jié)果生成詳情頁本身的正負(fù)樣本,加入詳情頁特有的feature和Deep模型組合起來訓(xùn)練最終的Deep&Wide模型,具體訓(xùn)練過程見下圖:

Wide & Deep模型參考的就是google之前的DWL的paper了,見下圖,其中Deep部分用的是CNN提取深度feature,Wide主要特征有完成圖片維度(文本面積占比/不規(guī)范圖/小圖/上下文指示信息/圖片句子數(shù)量)和句子維度(字體大小/價格信息/黑名單詞/無中文/重復(fù))特征等。

目前在挑尖貨場景數(shù)據(jù)已經(jīng)全量,數(shù)據(jù)示例見下圖,詳情頁抽取的結(jié)果相對更加貼切和優(yōu)質(zhì)的。

7.2 目前的難點(diǎn)詳情頁本身是個含金量大的”金礦“,但”黃金密度“有限,噪音信號特別多,模型召回提升難度大。而且大部分詳情頁都是以圖片的形式存在的,依賴的OCR是單行粒度的,重新組合后會遇到各式各樣的奇葩斷句case,給Evaluator模型帶來很大挑戰(zhàn)。

除此之外,詳情抽取的短句和生成式模型D2S的融合目前還停留在提供item topics層面,我們還在繼續(xù)嘗試擴(kuò)展Copy機(jī)制更有機(jī)的融合抽取和生成,留白,值得期待。

八、業(yè)務(wù)場景應(yīng)用

目前我們的數(shù)據(jù)已經(jīng)逐漸在搜索和搜索外場景應(yīng)用,簡單介紹下,歡迎合作。8.1 單品推薦理由8.1.1 手淘挑尖貨場景我們第一個全量的場景就是搜索的定位于高端用戶的”挑尖貨“場景,上線的是一句話導(dǎo)購形式的推薦理由。8月份做了下AB-test測試核心指標(biāo)都有提升,已全量。

挑尖貨場景導(dǎo)購短句效果圖

8.1.2 其余不再具體介紹

8.2 智能清單

8.2.1 手淘 - 搜索雙十一Tab和淘攻略

雙十一Tab是搜索結(jié)果頁的內(nèi)容固定坑位中,會根據(jù)相關(guān)性等因素展示D2S的清單或招商的達(dá)人清單。下面是雙十一Tab和淘攻略場景的產(chǎn)品PRD圖,雙十一期間開始生效,左邊是SRP入口樣式,右邊是清單詳情頁。

8.2.2 其余場景也不再具體介紹

九、感想和未來規(guī)劃

做下來這個項(xiàng)目,最大的感受是既驚喜又敬畏。驚喜的是原本圖像是深度學(xué)習(xí)應(yīng)用最為成功的領(lǐng)域,今天在NLP領(lǐng)域也可以完成過去想的到但做不了的事情,D2S模型寫出的文章竟然也能如此的生動、富有渲染力,甚至很多產(chǎn)品、運(yùn)營同學(xué)紛紛反饋很難辨別文章究竟是機(jī)器還是達(dá)人寫作的。而另一層面則是這個過程中對人腦的敬畏,人類可以在創(chuàng)作中進(jìn)行充分的演繹、聯(lián)想,從更加豐富的層面上進(jìn)行創(chuàng)作,表達(dá)自己的觀點(diǎn)和立場,而今天的神經(jīng)網(wǎng)絡(luò)本質(zhì)上還只是一個不具備思維能力的模式識別機(jī)。

我們重新思考下機(jī)器和達(dá)人之間的關(guān)系,現(xiàn)在一定是共生存的關(guān)系,機(jī)器一定需要依賴達(dá)人去學(xué)習(xí),但是今天的機(jī)器寫作可以去定義達(dá)人的入門門檻。像我們阿士比亞公眾號的那句話所說:”在人工智能替代一切的將來,唯有超越阿士比亞的內(nèi)容創(chuàng)造無可替代“。集團(tuán)內(nèi)其他team也有很多同學(xué)focus在NLP(NLG/NLU)領(lǐng)域或深度學(xué)習(xí)其他領(lǐng)域,希望我們能加強(qiáng)交流,一道把這個門檻提的更高。

最后感謝項(xiàng)目推進(jìn)過程中所有合作方和項(xiàng)目組同學(xué)的付出和努力,感謝各個團(tuán)隊(duì)各位老大們的支持!

十、主要參考文獻(xiàn)

如果對NLG領(lǐng)域感興趣希望精讀一些paper,可以看下我們精選的NLG、NMT和TextSummarization領(lǐng)域的以下這些paper。

Context-aware Natural Language Generation with Recurrent Neural Networks

Neural Text Generation from Structured Data with Application to the Biography Domain

Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems

Towards Constructing Sports News from Live Text Commentary

What to talk about and how? Selective Generation using LSTMs with Coarse-to-Fine

Chinese Poetry Generation with Planning based Neural Network 2016

Neural Machine Translation by Jointly Learning to Align and Translate 2015

Google’s Neural Machine Translation System- Bridging the Gap between Human and Machine Translation

Temporal Attention Model for Neural Machine Translation

Effective approaches to attention-based neural machine translation 2015

Abstractive sentence summarization with attentive recurrent neural networks 2016

A neural attention model for abstractive sentence summarization 2015

Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond

Get To The Point- Summarization with Pointer-Generator Networks

SummaRuNNer- A Recurrent Neural Network based Sequence Model for Extractive

A Deep Reinforced Model for Abstractive Summarization

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122825
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13658
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    8012

原文標(biāo)題:淘寶總知道你要什么?萬字講述智能內(nèi)容生成實(shí)踐 | 技術(shù)頭條

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    生成式AI如何在智能家居中落地?

    ,創(chuàng)造新內(nèi)容的能力為新的應(yīng)用開辟了許多可能性,尤其在智能家居中,生成式AI更是大有可為。 ? 通過生成式AI,智能家居可以學(xué)習(xí)家庭成員的行為
    的頭像 發(fā)表于 07-27 00:19 ?2294次閱讀

    MDK編譯生成的MAP文件內(nèi)容介紹

    MDK編譯生成的MAP文件內(nèi)容
    發(fā)表于 01-08 06:57

    基于用戶生成內(nèi)容的位置推斷方法

    不能準(zhǔn)確指定位置,社交媒體上的地理位置數(shù)據(jù)十分稀疏.針對此數(shù)據(jù)稀疏性問題,提出一種基于用戶生成內(nèi)容的位置推斷方法UGC-Ll(user generate content driven location inference method),實(shí)現(xiàn)對社交媒體用戶和
    發(fā)表于 01-21 10:22 ?0次下載

    智能語音在廣播內(nèi)容中的應(yīng)用表現(xiàn)

    智能語音技術(shù)自上世紀(jì)末開始在廣播產(chǎn)業(yè)中應(yīng)用,隨著深度學(xué)習(xí)算法的普及而有了強(qiáng)大的技術(shù)支撐。目前,智能語音在廣播產(chǎn)業(yè)中有四種應(yīng)用,即廣播內(nèi)容采集、廣播內(nèi)容
    的頭像 發(fā)表于 03-04 10:07 ?3743次閱讀

    基于關(guān)鍵的自定義古詩句生成設(shè)計(jì)與實(shí)現(xiàn)

    Seq2Seq模型,通過自建的數(shù)據(jù)集進(jìn)行訓(xùn)練,實(shí)現(xiàn)了基于關(guān)鍵的自定乂古詩句生成。在生成階段,首先輸入一段描述性內(nèi)容,并從中提取岀關(guān)鍵。當(dāng)
    發(fā)表于 04-12 15:30 ?20次下載
    基于關(guān)鍵<b class='flag-5'>字</b>的自定義古詩句<b class='flag-5'>生成</b>設(shè)計(jì)與實(shí)現(xiàn)

    2023年第一屆人工智能生成內(nèi)容國際會議(AIGC2023)

    2023年第一屆人工智能生成內(nèi)容國際會議(AIGC2023)將于8月25日至26日在中國上海舉辦。大會將集聚全球人工智能領(lǐng)域最具影響力的科學(xué)家和企業(yè)家,為人工
    的頭像 發(fā)表于 05-12 14:26 ?1371次閱讀

    生成式人工智能服務(wù)管理暫行辦法》正式施行,商湯「數(shù)字水印」護(hù)航生成式AI可信和著作權(quán)保護(hù)

    國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》正式施行, 明確提出 利用生成式人工智能生成
    的頭像 發(fā)表于 08-25 13:00 ?2200次閱讀
    《<b class='flag-5'>生成</b>式人工<b class='flag-5'>智能</b>服務(wù)管理暫行辦法》正式施行,商湯「數(shù)字水印」護(hù)航<b class='flag-5'>生成</b>式AI可信和著作權(quán)保護(hù)

    在線研討會 | 9 月 19 日,利用 GPU 加速生成式 AI 圖像內(nèi)容生成

    生成式 AI 已經(jīng)展示出其在藝術(shù)、設(shè)計(jì)、影視動畫、互娛、建筑等領(lǐng)域加速內(nèi)容創(chuàng)作的價值,可以簡化耗時任務(wù),讓內(nèi)容創(chuàng)作回歸創(chuàng)意,并具有重塑無數(shù)行業(yè)的潛力。生成式 AI 模型的廣泛應(yīng)用,不僅
    的頭像 發(fā)表于 09-14 17:40 ?721次閱讀
    在線研討會 | 9 月 19 日,利用 GPU 加速<b class='flag-5'>生成</b>式 AI 圖像<b class='flag-5'>內(nèi)容</b><b class='flag-5'>生成</b>

    php生成動態(tài)網(wǎng)頁內(nèi)容的方法

    PHP是一種廣泛用于Web開發(fā)的腳本語言,可用于生成動態(tài)網(wǎng)頁內(nèi)容。在本文中,我們將介紹使用PHP生成動態(tài)網(wǎng)頁內(nèi)容的方法。 什么是動態(tài)網(wǎng)頁? 動態(tài)網(wǎng)頁是一種可以根據(jù)用戶請求和其他變量動態(tài)
    的頭像 發(fā)表于 12-04 16:22 ?1385次閱讀

    生成式人工智能和感知式人工智能的區(qū)別

    生成新的內(nèi)容和信息的人工智能系統(tǒng)。這些系統(tǒng)能夠利用已有的數(shù)據(jù)和知識來生成全新的內(nèi)容,如圖片、音樂、文本等。
    的頭像 發(fā)表于 02-19 16:43 ?2776次閱讀

    生成式人工智能的概念_生成式人工智能主要應(yīng)用場景

    生成式人工智能(Generative Artificial Intelligence,簡稱GAI)是一種先進(jìn)的人工智能技術(shù),其核心在于利用計(jì)算機(jī)算法和大量數(shù)據(jù)來生成新的、具有實(shí)際價值的
    的頭像 發(fā)表于 09-16 16:05 ?4799次閱讀

    AIGC與傳統(tǒng)內(nèi)容生成的區(qū)別

    AIGC(Artificial Intelligence Generated Content,人工智能生成內(nèi)容)與傳統(tǒng)內(nèi)容生成在多個方面存在
    的頭像 發(fā)表于 10-25 15:13 ?1268次閱讀

    AIGC生成內(nèi)容的優(yōu)勢與挑戰(zhàn)

    人工智能生成內(nèi)容(AIGC,Artificial Intelligence Generated Content)是指利用人工智能技術(shù)自動生成
    的頭像 發(fā)表于 10-25 15:36 ?1804次閱讀

    AIGC與傳統(tǒng)內(nèi)容生成的區(qū)別 AIGC的優(yōu)勢和挑戰(zhàn)

    AIGC(Artificial Intelligence Generated Content,生成內(nèi)容)與傳統(tǒng)內(nèi)容生成在多個方面存在顯著區(qū)別,同時AIGC也展現(xiàn)出其獨(dú)特的優(yōu)勢和面臨的挑
    的頭像 發(fā)表于 11-22 16:04 ?1444次閱讀

    京點(diǎn)點(diǎn)AIGC平臺:實(shí)現(xiàn)高效、可控、智能的多模態(tài)內(nèi)容生成和優(yōu)化

    商場景下商品內(nèi)容、營銷素材的智能化、自動化生產(chǎn)和運(yùn)營,已幫助京東35+第三方商家一鍵AI生成店鋪運(yùn)營所需的商品圖片、運(yùn)營與營銷文案,提升內(nèi)容
    的頭像 發(fā)表于 01-21 10:34 ?1139次閱讀