完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>
標簽 > 自然語言處理
自然語言處理( Natural Language Processing, NLP)是計算機科學(xué)領(lǐng)域與人工智能領(lǐng)域中的一個重要方向。它研究能實現(xiàn)人與計算機之間用自然語言進行有效通信的各種理論和方法。
文章:566個 瀏覽:14106次 帖子:34個
這些實現(xiàn)都在幾個數(shù)據(jù)集(參見示例腳本)上進行了測試,性能與原始實現(xiàn)相當,例如BERT中文全詞覆蓋在SQuAD數(shù)據(jù)集上的F1分數(shù)為93;OpenAI GP...
哈工大訊飛聯(lián)合實驗室發(fā)布基于全詞覆蓋的中文BERT預(yù)訓(xùn)練模型
同理,由于谷歌官方發(fā)布的BERT-base(Chinese)中,中文是以字為粒度進行切分,沒有考慮到傳統(tǒng)NLP中的中文分詞(CWS)。我們將全詞Mask...
2019-07-18 標簽:數(shù)據(jù)集自然語言處理 6366 0
與BERT類似,HIBERT需要先進行無監(jiān)督的預(yù)訓(xùn)練(pre-training),然后在下游任務(wù)上進行有監(jiān)督的微調(diào)(finetuning)。HIBERT...
此在線課程涵蓋從基礎(chǔ)到高級NLP,它是Coursera上高級機器學(xué)習專業(yè)化的一部分。你可以免費注冊本課程,你將學(xué)習情緒分析、總結(jié)、對話狀態(tài)跟蹤等。你將學(xué)...
清華大學(xué)人工智能研究院自然語言處理與社會人文計算研究中心成立
尤政院士在致辭中指出,人類語言是人類智能的本質(zhì)體現(xiàn),更是人工智能技術(shù)當下和未來發(fā)展的戰(zhàn)略制高點。清華大學(xué)是國內(nèi)最早開展自然語言處理的單位之一,經(jīng)過四十年...
斯坦福AI Lab主任、NLP大師Manning:將深度學(xué)習應(yīng)用于自然語言處理領(lǐng)域的領(lǐng)軍者
像Alexa和Siri那樣的對話助手對自然語言處理產(chǎn)生了巨大的影響。最開始這些變化跟深度學(xué)習和自然語言處理關(guān)系不大,因為基本上用的都是人工編輯的腳本。所...
李沐大神《動手學(xué)深度學(xué)習》中文版發(fā)布了!
這些目標往往互有沖突:公式、定理和引用最容易通過LaTeX進行管理和展示,代碼自然應(yīng)該用簡單易懂的Python描述,而網(wǎng)頁本身應(yīng)該是一堆HTML及配套的...
人工智能知識樹 v1.0是整理了從零到一的學(xué)習內(nèi)容
這份人工智能知識樹 v1.0 是整理了從零到一的學(xué)習內(nèi)容,主要包括統(tǒng)計機器學(xué)習、深度學(xué)習、時間序列、機器視覺、圖嵌入/圖的表示學(xué)習、自然語言處理、強化學(xué)...
我國國家自然科學(xué)基金委員會正在利用AI來選擇匹配評審人
上個月在杭州召開的學(xué)術(shù)交流會議上,國家自然科學(xué)基金前負責人楊衛(wèi)介紹了試點數(shù)據(jù)。該工具的試用版本從去年獲批資助項目的近44000個專家組中各選擇至少1位專...
信息提取和文本挖掘 (占所有有效提交的 9.2%,ACL 2018 的這一比例為 11.5%。不過,由于今年的會議增加了一個 “應(yīng)用” 領(lǐng)域,百分比不完...
微軟亞洲互聯(lián)網(wǎng)工程院NLP團隊重磅推出開源項目NeuronBlocks
Model Zoo提供大量預(yù)構(gòu)建好的深度神經(jīng)網(wǎng)絡(luò)模型,涵蓋了常見的NLP任務(wù)。這些模型以JSON配置文件的形式呈現(xiàn),用戶可以通過簡單修改Model Zo...
知乎用戶曝光的寒武紀下一代云端AI芯片——思元270(MLU270)
在智能芯片領(lǐng)域,寒武紀被稱為這一行業(yè)的先行者,“先行者”的行蹤被泄露,自然會吸引眾多從業(yè)者的關(guān)注與討論——“新一代的云端AI芯片規(guī)格到底如何?”。該提問...
值得關(guān)注的是,今年KDD投稿通知中將“可重現(xiàn)性”作為重點,鼓勵作者們在論文中公開研究代碼和數(shù)據(jù),匯報他們的方法在公開數(shù)據(jù)集上的實驗結(jié)果,并盡可能完整描述...
一套新的自然語言處理(NLP)評估基準,名為 SuperGLUE
實現(xiàn) NLP 的方法有很多,主流的方法大多圍繞多任務(wù)學(xué)習和語言模型預(yù)訓(xùn)練展開,由此孕育出很多種不同模型,比如 BERT、MT-DNN、ALICE 和 S...
“科沃斯商用機器人自然語言處理技術(shù)與人機協(xié)作技術(shù)無縫銜接,能準確快速獲取用戶意圖,讓人機交流順暢自然。仍以銀行場景為例,在排隊和辦理業(yè)務(wù)時,市民可隨時享...
自然語言處理頂會NAACL近日公布了本屆會議的最佳論文,谷歌BERT論文獲得最佳長論文
BERT 提出一種新的預(yù)訓(xùn)練目標:遮蔽語言模型(masked language model,MLM),來克服上文提到的單向性局限。MLM 的靈感來自 C...
為什么要使用預(yù)訓(xùn)練模型?8種優(yōu)秀預(yù)訓(xùn)練模型大盤點
正如我們在本文中所述,ULMFiT使用新穎的NLP技術(shù)取得了令人矚目的成果。該方法對預(yù)訓(xùn)練語言模型進行微調(diào),將其在WikiText-103數(shù)據(jù)集(維基百...
2019-04-04 標簽:數(shù)據(jù)集自然語言處理nlp 2.4萬 0
三位科學(xué)家發(fā)明了深度學(xué)習的基本概念,在工程領(lǐng)域做出了重要突破,幫助深度神經(jīng)網(wǎng)絡(luò)獲得實際應(yīng)用。使得深度神經(jīng)網(wǎng)絡(luò)從不被看好的偏門領(lǐng)域,變成如今幾乎所有深度學(xué)...
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機 | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機 | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進電機 | SPWM | 充電樁 | IPM | 機器視覺 | 無人機 | 三菱電機 | ST |
伺服電機 | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |