一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

微軟亞洲研究院自然語言計算組全新力作

DPVg_AI_era ? 來源:lq ? 2019-01-24 08:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語言理解是AI皇冠上的明珠。在大數(shù)據(jù)、深度學習云計算推動下,自然語言理解的各個領域都孕育著無窮的機會。這份書單介紹了兩本來自微軟亞洲研究院自然語言計算組的全新力作:《智能問答》和《機器翻譯》,分別對智能問答和機器翻譯這兩個具有廣泛應用場景的研究領域進行了系統(tǒng)性的介紹。

作為全球知名的研發(fā)機構,微軟亞洲研究院在自然語言處理方面一直有著獨特優(yōu)勢。最近出版的《智能問答》和《機器翻譯》兩本技術著作凝結(jié)了微軟亞洲研究院在自然語言處理上的最新成果,獲得了業(yè)內(nèi)諸多專家的好評和推薦。

本期書單向各位讀者重點介紹這兩本書。

推薦專家及推薦理由

自然語言處理是中文信息處理的重要技術,我很高興地看到,中國的自然語言處理在最近二十年取得了長足的進步。最新的深度學習進一步推動了本領域的發(fā)展。《智能問答》和《機器翻譯》兩本書詳細地介紹了最新的理論、方法和技術,是難得的技術參考書。

——李生

哈爾濱工業(yè)大學教授,原中國中文信息學會理事長

早在1991年,當比爾·蓋茨創(chuàng)建微軟研究院時,就提出過一個愿景:讓計算機能看會聽,并可理解人類的想法。從那時開始,自然語言處理和計算機視覺、語音和圖像識別等一直就是重要的研發(fā)方向。這兩本書體現(xiàn)了微軟亞洲研究院在自然語言處理方面的卓越進展。

——洪小文

微軟全球資深副總裁、微軟亞太研發(fā)集團主席、微軟亞洲研究院院長

兩本書分別系統(tǒng)地介紹了兩個領域的關鍵技術,深入淺出,理論與實踐完美結(jié)合,對有志于進入本領域?qū)W習的人士大有幫助。懂語言者得天下!

——沈向洋

微軟全球執(zhí)行副總裁、微軟人工智能及研究事業(yè)部負責人

微軟是繼IBM深度問答系統(tǒng)問世以來率先從事開放式智能問答系統(tǒng)研究的著名團隊之一,而微軟亞洲研究院的機器翻譯團隊也是該領域全球最著名的團隊之一?!吨悄軉柎稹泛汀稒C器翻譯》兩本書的作者就分別來自于這兩個團隊,我對他們的學術造詣深信不疑,并對他們在研究中做出的貢獻充滿自豪。

《智能問答》一書深入地介紹了不同類型的智能問答系統(tǒng),對于其底層的深度學習理論和知識圖譜、語義表示做了深入淺出的闡述。《機器翻譯》一書深入地介紹了近三十年來得到階躍式發(fā)展的統(tǒng)計機器翻譯和神經(jīng)機器翻譯的理論、方法和工具。鑒于兩本書的理論高度和實踐深度,它不僅可以作為大學本科和研究生的教科書使用,也定將會成為相關科研工作者和企業(yè)開發(fā)人員案頭常備的專業(yè)參考書。

——黃昌寧

國際著名NLP專家、清華大學NLP團隊和MSRA自然語言處理團隊創(chuàng)始人

第一本書:《智能問答》

內(nèi)容簡介

作為搜索引擎和智能語音助手的核心功能,智能問答(Question Answering)近年來受到學術界和工業(yè)界的一致關注和深入研究,各種問答數(shù)據(jù)集和方法層出不窮。《智能問答》一書簡要回顧了該研究領域的發(fā)展歷史和背景知識,并在此基礎上系統(tǒng)介紹了包括知識圖譜問答、表格問答、文本問答、社區(qū)問答和問題生成在內(nèi)的五個典型的問答任務。

全書共分為十個章節(jié):第一章概述智能問答的歷史沿革、任務分類和問答測評等基本問題;第二章介紹了智能問答研究中幾種常用的統(tǒng)計學習和深度學習模型;第三章介紹了自然語言處理任務的基礎——實體鏈接,并詳細闡述了長文本實體鏈接的典型方法及其在智能問答系統(tǒng)中的應用;第四章對智能問答最重要的組成部分,自然語言中實體間的關系進行了講解,并介紹了四種不同的關系分類方法;第五章至第八章針對四類不同的智能問答任務,分別介紹了它們不同的解答方法;除此之外,本書的第九章還介紹了問題生成任務,解釋其如何從數(shù)據(jù)和模型訓練兩個角度進一步提升智能問答系統(tǒng)的性能;最后,第十章對全書內(nèi)容加以總結(jié)。

精彩章節(jié)節(jié)選

3.2.2 基于無監(jiān)督學習的方法

為了減少實體鏈接系統(tǒng)對標注數(shù)據(jù)的需求,可以將無監(jiān)督學習方法用于候選實體排序任務。常用的方法包括基于向量空間模型的方法和基于信息檢索的方法。

基于向量空間模型的方法首先將實體提及m和m對應的某個候選實體e_i分別轉(zhuǎn)化為向量表示。然后,通過計算這兩個向量表示之間的距離對不同候選實體進行排序。實體提及和候選實體的不同向量表示生成方法對應了不同的工作。

基于信息檢索的方法將每個知識圖譜實體對應的維基百科文檔作為該實體的表示,并基于該類文檔對全部知識圖譜實體建立索引。給定輸入文本中的一個實體提及m,該類方法首先從輸入文本中找到包含m的全部句子集合,并通過去停用詞等過濾操作生成一個查詢語句。然后,使用該查詢語句從知識圖譜實體對應的索引中查找得到相關性最高的知識圖譜實體,作為m的實體鏈接結(jié)果。

無監(jiān)督學習方法通常適用于長文本實體鏈接任務,這是由于短文本無法很好地生成實體提及對應的向量表示或查詢語句。

5.3 基于答案排序的方法

絕大多數(shù)基于語義分析的知識圖譜問答需要帶有語義標注的問題集合作為訓練數(shù)據(jù)。這類數(shù)據(jù)需要花費的時間和成本很高,而且要求標注人員對語義表示有一定程度的理解。使用答案作為弱監(jiān)督訓練語義分析模型,能夠在一定程度上緩解數(shù)據(jù)標注難度高、開銷大和標注量有限等問題,但按照答案選擇出來的正例語義分析候選存在一定的噪音,這在一定程度上也會對語義分析模型的質(zhì)量造成影響。

基于答案排序(Answer Ranking)的知識圖譜問答將該任務看成一個信息檢索任務:即給定輸入問題Q和知識圖譜KB,通過對KB中實體進行打分和排序,選擇得分最高的實體或?qū)嶓w集合作為答案輸出。

具體來說,該類知識圖譜問答方法主要包含下述四個模塊:

1.問題實體識別。問題實體是指問題Q中提到的知識庫實體,例如在Who founded Microsoft這個問題中,Microsoft在知識圖譜中對應的實體是該問題的問題實體。每個問題可能對應多個問題實體,該類實體的識別通常采用實體鏈接技術完成。

2.答案候選檢索。根據(jù)識別出來的一個問題實體,從知識圖譜中查找與之滿足特定約束條件的知識庫實體集合,作為該問題的答案候選。最常用的約束條件是:在知識圖譜中,與問題實體最多通過兩個謂詞相連的知識庫實體。該做法假設問題對應的答案實體和問題實體在知識圖譜中的距離通常不會很遠。

3.答案候選表示。由于每個答案候選無法直接與輸入問題進行比較,該模塊基于答案候選所在的知識圖譜上下文,生成答案候選對應的向量表示。這樣,輸入問題和答案候選之間的相關度計算就轉(zhuǎn)化為輸入問題和答案候選對應向量表示之間的相關度計算。具體方法的不同主要體現(xiàn)就在如何生成答案的向量表示上。

4.答案候選排序。使用排序模型對不同答案候選進行打分和排序,并返回得分最高的答案候選集合作為輸出結(jié)果。

圖5-5給出基于答案排序的知識圖譜問答方法的工作流程示意圖,按照對答案候選的不同表示方法,本章將介紹五種具體的方法,包括特征工程方法、問題生成方法、子圖匹配方法、向量表示方法和記憶網(wǎng)絡方法。

圖5-5:基于答案排序的知識圖譜問答流程圖

作者介紹

段楠博士,微軟亞洲研究院自然語言計算組主管研究員,主要從事包括智能問答、語義理解、對話系統(tǒng)和網(wǎng)絡搜索等在內(nèi)的自然語言處理基礎研究,在ACL、EMNLP、COLING、AAAI、IJCAI、CVPR、KDD等國際會議中發(fā)表論文40余篇,發(fā)明專項6項,其多項研究成果已成功應用到微軟核心人工智能產(chǎn)品中,包括必應搜索、Cortana語音助手和微軟小冰等。

周明博士,微軟亞洲研究院副院長,國際計算語言學協(xié)會(ACL)會長,中國計算機學會理事、中文信息技術專委會主任、中國中文信息學會常務理事、中國五所頂尖大學的博士生導師。周明博士1991年獲哈爾濱工業(yè)大學博士學位。1991-1993年清華大學博士后,隨后留校任副教授。1996-1999訪問日本高電社公司領導中日機器翻譯研究。1999年,周明博士加入微軟亞洲研究院。長期擔任微軟亞洲研究院的自然語言處理的負責人。他是2018首都勞動獎章獲得者。

第二本書:《機器翻譯》

內(nèi)容簡介:

《機器翻譯》一書以簡明易懂的語言對機器翻譯技術給予了全面介紹,兼顧經(jīng)典的統(tǒng)計機器翻譯以及目前飛速發(fā)展的神經(jīng)機器翻譯技術。同時,此書注重理論和實踐結(jié)合。讀者在深入淺出地理解理論體系后,可以借助實例和本書所介紹的工具快速入門,掌握機器翻譯的訓練和解碼的主要技術。

本書分為七章:第一章回顧機器翻譯發(fā)展的歷史并介紹機器翻譯技術的各種應用;第二章介紹如何獲取用于機器翻譯模型訓練的單語和雙語數(shù)據(jù)的方法以及機器翻譯自動評價方法;第三章介紹統(tǒng)計機器翻譯系統(tǒng)的基礎架構、建模方法和基本模型以及模型的參數(shù)訓練方法;第四章介紹典型的統(tǒng)計機器翻譯系統(tǒng)模型,包括基于短語的、基于形式文法的和基于句法的統(tǒng)計機器翻譯模型系統(tǒng);第五章介紹深度學習的基礎知識,包括感知機、詞語嵌入模型、卷積神經(jīng)網(wǎng)絡和循環(huán)神經(jīng)網(wǎng)絡;第六章系統(tǒng)介紹神經(jīng)機器翻譯,包括神經(jīng)聯(lián)合模型和基于序列映射的神經(jīng)機器翻譯模型以及注意力機制。除此之外,還介紹了基于卷積神經(jīng)網(wǎng)絡的編碼器和解碼器的神經(jīng)機器翻譯模型以及完全基于注意力網(wǎng)絡的模型;第七章進一步深入討論了神經(jīng)機器翻譯在模型改進、模型訓練、翻譯解碼等方面的前沿進展。

精彩章節(jié)節(jié)選

6.6 完全基于注意力網(wǎng)絡的神經(jīng)翻譯模型

在前邊我們提到,注意力網(wǎng)絡通過將源語言句子的隱含狀態(tài)和目標語言句子的隱含狀態(tài)直接鏈接,從而縮短了源語言詞的信息到生成對應目標語言詞的傳遞路徑,顯著得提高了翻譯質(zhì)量。基于循環(huán)神經(jīng)網(wǎng)絡的編碼器和解碼器,每個詞的隱含狀態(tài)都依賴于前一個詞的信息,所以編碼的狀態(tài)是順序生成的。這用編碼的順序生成嚴重影響了模型的并行能力。

另一方面,盡管基于門的循環(huán)神經(jīng)單元可以解決梯度消失或者爆炸的問題,然而相距太遠的詞的信息仍然不能保證被考慮進來。盡管卷積神經(jīng)網(wǎng)絡可以提高并行化的能力,然而只能考慮一定窗口內(nèi)的歷史信息。為了同時解決這些問題,可以將兩個額外的注意力網(wǎng)絡引入編碼器和解碼器的內(nèi)部,分別用于解決源語言句子和目標語言句子內(nèi)部詞語之間的依賴關系?;谶@樣的考慮, Vaswani 等人提出了完全基于注意力網(wǎng)絡的神經(jīng)翻譯模型(Transformer),在本節(jié)中將對該方法進行詳細的介紹。

6.6.1 基于注意力網(wǎng)絡的編碼器和解碼器

如圖 6-22 所示,編碼器由 N 個同構的網(wǎng)絡層堆疊而成,每一個網(wǎng)絡層包含兩個子網(wǎng)絡層:

第一個子網(wǎng)絡層稱為分組自注意力網(wǎng)絡,用于將同層的源語言句子里的其它詞的信息通過自注意力網(wǎng)絡考慮進來以生成當前當前詞的上下文向量;

第二個子網(wǎng)絡層是一個全聯(lián)通的前饋神經(jīng)網(wǎng)絡,該網(wǎng)絡的作用是將自注意力網(wǎng)絡生成的源語言句子內(nèi)的上下文向量同當前詞的信息進行整合,從而生成考慮了整個句子上下文的當前時刻的隱含狀態(tài)。

為提高模型的訓練速度,殘差鏈接(Residual Connection)和層規(guī)范化(Layer Normalization)被用于這兩個子網(wǎng)絡層,即圖中的 Add&Norm 層,定義為LayerNorm(x +SubLayer(x)),其中x為子網(wǎng)絡的輸入,SubLayer為該子網(wǎng)絡的處理函數(shù),LayerNorm為層規(guī)范化函數(shù)。通過對 N 個這樣的網(wǎng)絡層堆疊可以對信息進一步地進行抽象和融合。為了引入殘差網(wǎng)絡,同構網(wǎng)絡中每242個子網(wǎng)絡的輸出,以及詞向量和位置編碼(Positional Encoding)都需要保持同樣的長度。

圖 6-22:完全基于注意力網(wǎng)絡的神經(jīng)翻譯模型

解碼器同樣包含堆疊的N個同構網(wǎng)絡層,每個網(wǎng)絡層包含三個子網(wǎng)絡層:

第一個子網(wǎng)絡層同編碼器的第一個子網(wǎng)絡層類似,是一個分組自注意力網(wǎng)絡,負責將同層的目標語言句子里的其它詞的信息考慮進來生成一個目標語言句子內(nèi)的上下文向量。不同于編碼器的自注意力網(wǎng)絡,解碼器在解碼的時候只能夠看到已經(jīng)生成的詞的信息,對于未生成的內(nèi)容,可以使用掩碼(mask)機制將其屏蔽掉。

第二個子網(wǎng)絡層為分組的注意力網(wǎng)絡,該網(wǎng)絡作用同 6.4 節(jié)中原始的注意力網(wǎng)絡層類似,負責將源語言句子的隱含狀態(tài)同目標語言的隱含狀態(tài)進行比較生成源語言句子的上下文向量。

第三個子網(wǎng)絡層同編碼器的第二個子網(wǎng)絡層類似,是一個全聯(lián)通的前饋神經(jīng)網(wǎng)絡,該網(wǎng)絡的作用是將自注意力網(wǎng)絡生成的目標語言句子內(nèi)的上下文向量,注意力網(wǎng)絡生成的源語言句子的上下文向量,以及當前詞的信息進行整合,從而更好的預測下一個目標語言測。同編碼器類似,殘差網(wǎng)絡(Residual Connection)和層規(guī)范化(Layer Normalization)也被用于解碼器的三個子網(wǎng)絡層。

作者介紹

李沐博士,曾任微軟亞洲研究院自然語言計算組資深研究員。研究領域和興趣包括自然語言處理,大規(guī)模數(shù)據(jù)挖掘,深度學習,機器翻譯等。在國際知名期刊和會議上發(fā)表論文70余篇,并對Windows、Office以及必應等多項微軟產(chǎn)品做出過重要貢獻。

劉樹杰博士,微軟研究院自然語言計算組主管研究員,主要研究領域為自然語言處理、機器學習、機器翻譯以及深度神經(jīng)網(wǎng)絡在自然語言處理中的應用等。

張冬冬博士,微軟亞洲研究院自然語言計算組主管研究員,主要從事機器翻譯的理論研究與系統(tǒng)開發(fā)工作,發(fā)表學術論文近50篇,是微軟翻譯、必應詞典、Skype Translator等產(chǎn)品的重要貢獻者。

周明博士,微軟亞洲研究院副院長,國際計算語言學協(xié)會(ACL)會長,中國計算機學會理事、中文信息技術專委會主任、中國中文信息學會常務理事、中國五所頂尖大學的博士生導師。周明博士1991年獲哈爾濱工業(yè)大學博士學位。1991-1993年清華大學博士后,隨后留校任副教授。1996-1999訪問日本高電社公司領導中日機器翻譯研究。1999年,周明博士加入微軟亞洲研究院。長期擔任微軟亞洲研究院的自然語言處理的負責人。他是2018首都勞動獎章獲得者。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微軟
    +關注

    關注

    4

    文章

    6686

    瀏覽量

    105755
  • 機器翻譯
    +關注

    關注

    0

    文章

    140

    瀏覽量

    15193
  • 自然語言
    +關注

    關注

    1

    文章

    292

    瀏覽量

    13656

原文標題:沈向洋力薦,周明、李沐執(zhí)筆:要了解智能問答和機器翻譯,先看這兩本書!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    導遠科技與清華大學無錫應用技術研究院達成合作

    近日,導遠科技與清華大學無錫應用技術研究院(以下簡稱:研究院)達成合作。導遠科技將提供高精度定位產(chǎn)品及解決方案,以支持研究院在L4級自動駕駛和人形機器人領域的技術研發(fā)及轉(zhuǎn)化落地。
    的頭像 發(fā)表于 06-12 16:34 ?396次閱讀

    上汽奧迪攜兩大全新力作亮相2025上海車展

    近日,第二十一屆上海國際車展正式開幕,上汽奧迪攜兩大全新力作——A5L Sportback、奧迪 E5 Sportback首次亮相車展,與A7L、Q6等明星陣容齊聚5.1號館奧迪聯(lián)合展臺。立足奧迪
    的頭像 發(fā)表于 04-27 10:35 ?357次閱讀

    如何優(yōu)化自然語言處理模型的性能

    優(yōu)化自然語言處理(NLP)模型的性能是一個多方面的任務,涉及數(shù)據(jù)預處理、特征工程、模型選擇、模型調(diào)參、模型集成與融合等多個環(huán)節(jié)。以下是一些具體的優(yōu)化策略: 一、數(shù)據(jù)預處理優(yōu)化 文本清洗 :去除文本中
    的頭像 發(fā)表于 12-05 15:30 ?1700次閱讀

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它致力于研究如何讓計算機能夠理解、解釋和生成人類
    的頭像 發(fā)表于 12-05 15:21 ?1985次閱讀

    語音識別與自然語言處理的關系

    在人工智能的快速發(fā)展中,語音識別和自然語言處理(NLP)成為了兩個重要的技術支柱。語音識別技術使得機器能夠理解人類的語音,而自然語言處理則讓機器能夠理解、解釋和生成人類語言。這兩項技術共同推動
    的頭像 發(fā)表于 11-26 09:21 ?1501次閱讀

    微軟在東京開設日本首個研究基地

    近日,微軟在東京正式啟用了其日本首個研究基地——微軟亞洲研究院東京分院。作為微軟在全球技術實驗室
    的頭像 發(fā)表于 11-19 16:26 ?613次閱讀

    什么是LLM?LLM在自然語言處理中的應用

    隨著人工智能技術的飛速發(fā)展,自然語言處理(NLP)領域迎來了革命性的進步。其中,大型語言模型(LLM)的出現(xiàn),標志著我們對語言理解能力的一次飛躍。LLM通過深度學習和海量數(shù)據(jù)訓練,使得機器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?3651次閱讀

    ASR與自然語言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動語音識別)與自然語言處理(NLP)是人工智能領域的兩個重要分支,它們在許多應用中緊密結(jié)合,共同構成了自然語言理解和生成的技術體系
    的頭像 發(fā)表于 11-18 15:19 ?1025次閱讀

    卷積神經(jīng)網(wǎng)絡在自然語言處理中的應用

    自然語言處理是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,卷積神經(jīng)網(wǎng)絡(CNNs)作為一種強大的模型,在圖像識別和語音處理等領域取得了顯著成果
    的頭像 發(fā)表于 11-15 14:58 ?806次閱讀

    循環(huán)神經(jīng)網(wǎng)絡在自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,循環(huán)神經(jīng)網(wǎng)絡(RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢而在NLP中扮演了重要
    的頭像 發(fā)表于 11-15 09:41 ?814次閱讀

    使用LSTM神經(jīng)網(wǎng)絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(RNN)及其變體——長短期記憶(LSTM)網(wǎng)絡的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?1161次閱讀

    自然語言處理的未來發(fā)展趨勢

    隨著技術的進步,自然語言處理(NLP)已經(jīng)成為人工智能領域的一個重要分支。NLP的目標是使計算機能夠理解、解釋和生成人類語言,這不僅涉及到語言的表層形式,還包括
    的頭像 發(fā)表于 11-11 10:37 ?1726次閱讀

    自然語言處理與機器學習的區(qū)別

    在人工智能的快速發(fā)展中,自然語言處理(NLP)和機器學習(ML)成為了兩個核心的研究領域。它們都致力于解決復雜的問題,但側(cè)重點和應用場景有所不同。 1. 自然語言處理(NLP) 定義: 自然語
    的頭像 發(fā)表于 11-11 10:35 ?1547次閱讀

    使用LLM進行自然語言處理的優(yōu)缺點

    自然語言處理(NLP)是人工智能和語言學領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言。大型語言模型(LLM)是NLP領域的一
    的頭像 發(fā)表于 11-08 09:27 ?2450次閱讀

    AI智能化問答:自然語言處理技術的重要應用

    自然語言處理(NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。問答系統(tǒng)作為NLP的一個重要應用,能夠精確地解析用戶以自然語言提出的問題,并從包含豐富
    的頭像 發(fā)表于 10-12 10:58 ?1096次閱讀
    AI智能化問答:<b class='flag-5'>自然語言</b>處理技術的重要應用