一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT技術(shù)及其對軍事安全影響

AI智勝未來 ? 來源:防務(wù)快訊 ? 2023-06-26 15:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要:OpenAI發(fā)布ChatGPT以來,引發(fā)了人類社會的巨大震蕩,產(chǎn)學(xué)研各界紛紛關(guān)注其技術(shù)實現(xiàn),思考其技術(shù)局限性與應(yīng)用前景。首先,追溯了GPT家族模型發(fā)展歷程,分析了GPT家族模型網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計與訓(xùn)練過程改進中的技術(shù)思想;然后,對ChatGPT的優(yōu)劣勢進行分析,ChatGPT呈現(xiàn)出自然流暢、多輪交互、泛化能力強3大優(yōu)勢,但依然存在一定的技術(shù)局限性;最后,評估了ChatGPT給軍事安全帶來的挑戰(zhàn),并提出應(yīng)對策略,涵蓋反生成式AI技術(shù)研究、網(wǎng)絡(luò)信息安全防御體系構(gòu)建、軍事智能輔助決策系統(tǒng)建設(shè)、軍事數(shù)據(jù)資源建設(shè)4個方面。

1、問題的提出

從20世紀(jì)40年代開始,人工智能(AI)引起學(xué)術(shù)界的廣泛關(guān)注。1997年,IBM的深藍(lán)系統(tǒng)擊敗了國際象棋冠軍Gary Kasparov。進入21世紀(jì)以來,計算機技術(shù)快速發(fā)展,人工智能已經(jīng)開始走進人們生活,服務(wù)機器人、手機語音助手和云計算均在不同程度上使用了人工智能算法,在很多方面改善了人們生活品質(zhì)。2011年,IBM的沃森系統(tǒng)參加熱門問答節(jié)目Jeopardy,擊敗人類選手Brad Rutter和Ken Jennings拿下第1名。2016年,ImageNet自動標(biāo)注任務(wù)的錯誤率從2010年的28%下降到低于3%,而人類水平約5%,谷歌DeepMind開發(fā)的AlphaGo先后擊敗李世石、柯潔等人類圍棋冠軍,且后續(xù)的新版程序Zero對戰(zhàn)初代程序Go的戰(zhàn)績是100∶0。

同期,人工智能技術(shù)引起了各國領(lǐng)導(dǎo)人的重視,世界主要國家紛紛開始謀劃在人工智能領(lǐng)域的戰(zhàn)略布局。2015年5月,中國政府推出《中國制造2025》,提出以推進智能制造為主攻方向的指導(dǎo)思想,智能概念開始進入國家戰(zhàn)略。2016年8月,中國國務(wù)院發(fā)布《“十三五”國家科技創(chuàng)新規(guī)劃》,明確人工智能作為發(fā)展新一代信息技術(shù)的主要方向。2016年10月,白宮科技政策辦公室(OSTP)國家科學(xué)技術(shù)委員會(NSTC)發(fā)布《為人工智能的未來做準(zhǔn)備》以及《國家人工智能研究與發(fā)展戰(zhàn)略計劃》2份重要報告,正式將人工智能上升到國家戰(zhàn)略層面。2017年7月,中國國務(wù)院頒布《新一代人工智能發(fā)展規(guī)劃》,該計劃是所有國家人工智能戰(zhàn)略中最為全面的,包含了研發(fā)、工業(yè)化、人才發(fā)展、教育與職業(yè)培訓(xùn)、標(biāo)準(zhǔn)制定與法規(guī)以及道德規(guī)范與安全等各個方面的戰(zhàn)略。2017年10月,黨的十九大報告中提出堅持走中國特色強軍之路,加快軍事智能武器發(fā)展,正式開始了軍事領(lǐng)域人工智能技術(shù)的布局。近幾年,美、中、俄、法等國均持續(xù)發(fā)布人工智能、軍事智能的相關(guān)戰(zhàn)略規(guī)劃。2022年10月,黨的二十大報告中提出推動戰(zhàn)略性新興產(chǎn)業(yè)融合集群發(fā)展,構(gòu)建新一代信息技術(shù)、人工智能和高端裝備等新的增長引擎。2023年,兩會政府工作報告中提出要加快建設(shè)現(xiàn)代化產(chǎn)業(yè)體系,著力提升高端化、智能化和綠色化水平。人工智能技術(shù)的發(fā)展與應(yīng)用始終處于國家科技發(fā)展的排頭兵地位。 自然語言處理(NLP)是人工智能的一個重要分支,其目的是利用計算機對自然語言進行智能化處理,讓機器能夠理解人類語言,用自然語言方式與人類交流,最終擁有智能。自然語言處理屬于認(rèn)知智能任務(wù),且自然語言具有歧義性、抽象性、語義組合性、進化性、非規(guī)范性、主觀性、知識性和難移植性等特點,因此自然語言處理需要更強的抽象和推理能力,相對于其他人工智能任務(wù)難度更高,被譽為“人工智能皇冠上的明珠”。 自然語言處理簡要發(fā)展歷程如圖1所示,經(jīng)歷了依賴小規(guī)模專家知識的基于規(guī)則的數(shù)據(jù)處理、基于大規(guī)模語料庫統(tǒng)計模型的統(tǒng)計機器學(xué)習(xí)以及基于大規(guī)模語料庫神經(jīng)網(wǎng)絡(luò)的漫長摸索后,Google于2017年發(fā)布論文,首次提出轉(zhuǎn)換器(Transformer)模型,完全拋棄了循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)等傳統(tǒng)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),而采用Attention機制來完成機器翻譯任務(wù),不僅取得了很好效果,還大大縮短了訓(xùn)練時間,成為自然語言處理技術(shù)發(fā)展的重要里程碑,由此演化出3個技術(shù)分支。

8fb072b6-135c-11ee-962d-dac502259ad0.png

圖1 自然語言處理簡要發(fā)展歷程

谷歌基于自編碼語言模型和生成式語言模型2種技術(shù)思想,發(fā)展了其中2個技術(shù)分支。BERT為代表的自編碼語言模型展示了預(yù)訓(xùn)練語言模型對于自然語言理解任務(wù)的巨大潛力,在諸多任務(wù)中取得了突破性進展,成為自然語言理解任務(wù)中的基準(zhǔn)模型。以T5為代表的生成式語言模型,將所有NLP任務(wù)都轉(zhuǎn)化成文本到文本(Text-to-Text)任務(wù),適合給定上文然后生成相對固定的下文,更適用于翻譯、對聯(lián)生成等相對固定的任務(wù)。 Open AI采用生成式語言模型的技術(shù)思想,發(fā)展了GPT這一分支。GPT在生成新文字時,更重視附近單詞的影響,相對更有靈活性,2022年底,推出的ChatGPT能夠通過學(xué)習(xí)和理解人類語言進行對話,還能根據(jù)聊天的上下文進行互動,真正像人類一樣聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯和代碼等任務(wù),展示了預(yù)訓(xùn)練語言模型在語言生成任務(wù)中的潛力,NLP工具終于走出實驗室,試水應(yīng)用,震驚了世界。 經(jīng)過上述技術(shù)革新的歷程,形成了圖2所示自然語言處理4范式。

8fcf9dc6-135c-11ee-962d-dac502259ad0.png

圖2 自然語言處理4范式

1) 特征工程——非神經(jīng)網(wǎng)絡(luò)時代的完全監(jiān)督學(xué)習(xí):由專家結(jié)合語言學(xué)知識和個人經(jīng)驗提取出自然語言語料庫中一些特征,采用規(guī)則或統(tǒng)計學(xué)模型進行特征匹配,進而實現(xiàn)特定的NLP能力; 2) 架構(gòu)工程——基于神經(jīng)網(wǎng)絡(luò)的完全監(jiān)督學(xué)習(xí):面向具體的自然語言處理任務(wù),針對性構(gòu)建訓(xùn)練數(shù)據(jù)和算法以訓(xùn)練模型,由于訓(xùn)練數(shù)據(jù)是和任務(wù)嚴(yán)格綁定的,難以在不同任務(wù)間共享,因此訓(xùn)練數(shù)據(jù)的規(guī)模往往較小,算法性能嚴(yán)重受限,在面向產(chǎn)業(yè)界推廣時,需重新構(gòu)建訓(xùn)練數(shù)據(jù),推廣難度較大; 3) 目標(biāo)工程——預(yù)訓(xùn)練模型+微調(diào):以BERT為代表的大規(guī)模預(yù)訓(xùn)練模型引領(lǐng)的范式,以在大規(guī)模未標(biāo)記數(shù)據(jù)上通過自監(jiān)督學(xué)習(xí)完成預(yù)訓(xùn)練的模型為基礎(chǔ),在下游任務(wù)上使用少量人工標(biāo)記數(shù)據(jù)進行微調(diào),研發(fā)效率高、效果好,但在下游任務(wù)與預(yù)訓(xùn)練任務(wù)的語義差異過大時,效果較差,且微調(diào)樣本數(shù)量有限的情況下容易過擬合; 4) Prompt工程——預(yù)訓(xùn)練模型+提示+預(yù)測:GPT-3引領(lǐng)的新范式,建立在大規(guī)模預(yù)訓(xùn)練模型已經(jīng)學(xué)習(xí)到足夠的知識、無需改造的假設(shè)上,對下游任務(wù)進行改造,采用提示學(xué)習(xí)的方法,將下游任務(wù)的輸入輸出形式改造成適合預(yù)訓(xùn)練模型的樣子,從而使預(yù)訓(xùn)練模型能夠在不同任務(wù)上取得很好的效果,形成零樣本、少樣本泛化能力,并且隨著模型規(guī)模的增大,性能提升的數(shù)量級基本呈現(xiàn)線性增長,打破了原有范式下模型規(guī)模增大、性能飽和的瓶頸。 近年來,目標(biāo)工程范式在自然語言處理的學(xué)術(shù)研究與產(chǎn)業(yè)落地中發(fā)揮了巨大作用,Prompt工程范式以學(xué)術(shù)研究為主,但隨著ChatGPT的橫空出世,Prompt工程范式儼然成為人工智能領(lǐng)域關(guān)注的焦點。目標(biāo)工程范式、Prompt范式均采用了大規(guī)模預(yù)訓(xùn)練語言模型,能夠有效利用自監(jiān)督任務(wù)從大量語料學(xué)習(xí)得到語言中蘊含的大量隱性、多層次的知識,基于Transformer的模型結(jié)構(gòu)使其可以支撐各種NLP任務(wù),統(tǒng)一范式下形成了即插即用的效果,呈現(xiàn)出顯著的基礎(chǔ)設(shè)施效應(yīng),通過微調(diào)、提示適配下游任務(wù),從而有效遷移至產(chǎn)業(yè)化應(yīng)用中。 ChatGPT引起各行各業(yè)空前的熱度,數(shù)億用戶紛紛驚嘆于其強大功能,思考其背后關(guān)鍵技術(shù)革新,也關(guān)注當(dāng)前 ChatGPT仍存在哪些缺陷。本文以此為出發(fā)點,對ChatGPT的關(guān)鍵技術(shù)原理進行闡述,分析其優(yōu)劣勢,研究其應(yīng)用于軍事領(lǐng)域的可能性,評估給我國軍事安全帶來的風(fēng)險與挑戰(zhàn),并提出應(yīng)對思路。

2、ChatGPT技術(shù)原理

2.1 GPT家族模型發(fā)展歷程

GPT家族模型發(fā)展歷程如圖3所示。

904f9a6c-135c-11ee-962d-dac502259ad0.png

圖3 GPT家族模型發(fā)展歷程

2018年6月,OpenAI發(fā)布論文,首次提出GPT模型,并推出了具有1.17億個參數(shù)的GPT-1模型。GPT采用2階段過程:第1階段是利用語言模型進行預(yù)訓(xùn)練;第2階段通過微調(diào)的模式解決下游任務(wù)。第1階段的預(yù)訓(xùn)練過程:特征提?。‥mbedding)→轉(zhuǎn)換(Transformer)→文本生成。第2階段是微調(diào)過程,具體為:1) 對于不同的下游任務(wù),把任務(wù)的網(wǎng)絡(luò)結(jié)構(gòu)改造成與GPT-1網(wǎng)絡(luò)結(jié)構(gòu)一致;2) 做下游任務(wù)時,利用第1階段預(yù)訓(xùn)練好的參數(shù)初始化GPT-1的網(wǎng)絡(luò)結(jié)構(gòu),從而引入預(yù)訓(xùn)練學(xué)到的語言學(xué)知識;3) 使用任務(wù)去訓(xùn)練這個網(wǎng)絡(luò),對網(wǎng)絡(luò)參數(shù)進行微調(diào),使該網(wǎng)絡(luò)更適合解決下游任務(wù)。GPT微調(diào)階段示意圖如圖4所示。

90797fbc-135c-11ee-962d-dac502259ad0.png

圖4 GPT微調(diào)階段示意圖

2019年2月,OpenAI發(fā)布論文,提出GPT-2模型,該模型具有15億個參數(shù)。2020年5月,OpenAI發(fā)布論文,提出GPT-3模型,該模型具有1 750億個參數(shù)。GPT-3與GPT-1、GPT-2相比,模型架構(gòu)沒有本質(zhì)區(qū)別,主要是模型參數(shù)、訓(xùn)練數(shù)據(jù)規(guī)模有了大幅提升。GPT-3.5是基于GPT-3演變的模型集合,最大區(qū)別是訓(xùn)練過程不一樣,GPT-3.5的訓(xùn)練始自“純代碼完成任務(wù)”,再加入文本訓(xùn)練,可理解為先對模型進行嚴(yán)格的形式邏輯訓(xùn)練,再對大規(guī)模文本進行訓(xùn)練,就如同先教會學(xué)生形式邏輯,再教會這些邏輯在現(xiàn)實中各種應(yīng)用。 從GPT-1到GPT-3.5可以發(fā)現(xiàn),更大的語言模型雖然有了更強的語言理解和生成能力,但不能從本質(zhì)上使它們更好地遵循或理解用戶的指令意圖。例如,大型語言模型可能會生成不真實、有害或?qū)τ脩魶]有幫助的輸出,原因在于這些語言模型預(yù)測下一個單詞的訓(xùn)練目標(biāo)與用戶目標(biāo)意圖是不一致的。2022年2月底,OpenAI發(fā)布論文,推出了基于GPT-3模型進一步微調(diào)的InstructGPT模型。2022年底發(fā)布的ChatGPT與InstructGPT僅數(shù)據(jù)采集方式存在差異,模型結(jié)構(gòu)、訓(xùn)練方式一致,都引入了人工標(biāo)注和反饋,使用強化學(xué)習(xí)算法對語言模型進行微調(diào)。2023年3月,OpenAI發(fā)布了GPT-4,支持的任務(wù)與ChatGPT類似,但準(zhǔn)確性大幅提升,并具備識圖能力,目前尚未公開技術(shù)細(xì)節(jié)。

2.2 ChatGPT訓(xùn)練過程

ChatGPT訓(xùn)練中,使用了人類反饋進行強化學(xué)習(xí)訓(xùn)練,其目的是:1) 讓語言模型學(xué)會理解人類指令的含義,如文本生成類問題、知識回答類問題等不同類型命令;2) 讓語言模型學(xué)會判斷對于給定的指令,什么樣的答案輸出是優(yōu)質(zhì)的,如富含信息、內(nèi)容豐富、對用戶有幫助、無害、不包含歧視信息等多種標(biāo)準(zhǔn),從而在各種任務(wù)上使語言模型與用戶的意圖保持一致,輸出人類想要的內(nèi)容。結(jié)合InstructGPT論文以及Hugging Face對基于人類反饋的強化學(xué)習(xí)(RLHF)算法的解讀,來推斷ChatGPT的訓(xùn)練過程,圖5 為訓(xùn)練過程原理圖,模型訓(xùn)練分為3步。

90af0aba-135c-11ee-962d-dac502259ad0.png

圖5 ChatGPT訓(xùn)練過程原理圖

90d11cb8-135c-11ee-962d-dac502259ad0.png

3) 使用PPO強化學(xué)習(xí)算法,根據(jù)獎勵模型微調(diào)語言模型,使模型具備生成更加精確、豐富和無害內(nèi)容的能力。 采用PPO強化學(xué)習(xí)算法來不斷增強預(yù)訓(xùn)練模型的能力,利用SFT模型初始化PPO中策略,并微調(diào)優(yōu)化SFT模型。該階段無需人工標(biāo)注數(shù)據(jù),從prompt數(shù)據(jù)集中隨機采樣一批新的prompts,使用PPO模型生成回答answers,并用RM模型給出的獎勵分?jǐn)?shù),這個獎勵分?jǐn)?shù)就是RM賦予給整個回答(token序列)的整體reward。將每個token視作一個時間步,將reward由后往前依次傳遞,由此產(chǎn)生的policy梯度可更新PPO模型參數(shù)。該強化學(xué)習(xí)過程可以訓(xùn)練policy產(chǎn)生高reward的答案,即產(chǎn)生符合RM標(biāo)準(zhǔn)的高質(zhì)量回答。 上述訓(xùn)練方法使得ChatGPT強大的原因在于以下3點: 1) 大規(guī)模預(yù)訓(xùn)練語言模型提供知識基礎(chǔ)。ChatGPT是在GPT-3.5模型基礎(chǔ)上進一步微調(diào)獲得的,GPT-3.5通過大規(guī)模文本語料學(xué)習(xí)到豐富的知識并擁有強大的語言理解和生成能力。 2) 多樣化且高質(zhì)量的人工標(biāo)注數(shù)據(jù)集。OpenAI設(shè)置了諸多標(biāo)準(zhǔn)和測試篩選合適的數(shù)據(jù)標(biāo)注人員,讓這些標(biāo)注人員撰寫或標(biāo)注訓(xùn)練模型的數(shù)據(jù),這些精標(biāo)的數(shù)據(jù)涉及問答、生成和頭腦風(fēng)暴等多種類型任務(wù),標(biāo)注的數(shù)據(jù)多樣化、內(nèi)容豐富且質(zhì)量高,使得ChatGPT能夠?qū)崿F(xiàn)有效高質(zhì)量的學(xué)習(xí)。 3) 人類反饋的強化學(xué)習(xí)算法的使用。使用強化學(xué)習(xí)的方法直接優(yōu)化帶有人類反饋的語言模型,強化學(xué)習(xí)使得語言模型在已有的知識和信息基礎(chǔ)上不斷理解用戶的意圖、學(xué)習(xí)用戶的偏好,同時合理調(diào)整自身的輸出。

3、ChatGPT優(yōu)劣勢分析

ChatGPT是基于大規(guī)模預(yù)訓(xùn)練語言模型構(gòu)建的聊天機器人,能夠通過對話形式提供文本生成、代碼生成和翻譯等能力,因此,本章將其與現(xiàn)有的其他聊天機器人、大規(guī)模預(yù)訓(xùn)練語言模型、任務(wù)定制微調(diào)模型進行對比。ChatGPT呈現(xiàn)出自然流暢、多輪交互和泛化能力強3大優(yōu)勢,但從AI研發(fā)的算力、算法和算據(jù)3要素的角度出發(fā),ChatGPT依然存在一定的技術(shù)局限性,導(dǎo)致其存在知識難以更新、專業(yè)領(lǐng)域能力欠缺等問題。

3.1 優(yōu)勢分析

1) 打破了聊天機器人“人工智障”的固有印象,溝通自然流暢。微軟小冰和天貓精靈等人們經(jīng)常接觸的聊天機器人,以面向搜索、播放音樂和調(diào)控智能設(shè)備等任務(wù)為主,在使用中可以發(fā)現(xiàn)對任務(wù)的描述比較刻板,背后采用了基于規(guī)則模板的API進行輔助,基于語言模型的開放式交談娛樂的效果普遍較差,導(dǎo)致人們形成了聊天機器人是“人工智障”的印象。與這些常見的聊天機器人相比,ChatGPT得益于大模型+指令微調(diào)的技術(shù)優(yōu)勢,回答更準(zhǔn)確,答案更流暢,與人類的交互更加自然。 2) 打破了大規(guī)模預(yù)訓(xùn)練語言模型作為底層工具的思維定勢,支持持續(xù)交互。BERT和PLUG等大規(guī)模預(yù)訓(xùn)練語言模型,均基于“預(yù)訓(xùn)練模型+微調(diào)”的研發(fā)范式進行應(yīng)用,AI頭部企業(yè)基于大規(guī)模數(shù)據(jù)訓(xùn)練生成大規(guī)模預(yù)訓(xùn)練模型后,NLP產(chǎn)學(xué)研人員在任務(wù)中使用這些模型,結(jié)合任務(wù)進行微調(diào),預(yù)訓(xùn)練模型只作為語義嵌入的工具進行使用,不存在交互的過程。而ChatGPT在指令微調(diào)階段中使用了大量的多輪對話數(shù)據(jù),從而具備了建模對話歷史的能力,能持續(xù)和用戶交互,基于人類反饋的強化學(xué)習(xí)機制,使其輸出的結(jié)果更符合人類預(yù)期,從而形成了拒絕不當(dāng)問題、承認(rèn)無知等獨有能力。 3) 打破了面向特定任務(wù)微調(diào)的研發(fā)范式,泛化能力強。在ChatGPT之前,普遍采用的目標(biāo)工程研發(fā)范式,導(dǎo)致微調(diào)得到的小模型只能針對特定任務(wù)輸出能力,例如可以寫詩的模型不能支持翻譯。ChatGPT引領(lǐng)的Prompt工程范式,通過提示學(xué)習(xí)激發(fā)出模型的泛化能力,使得模型在零樣本、少樣本場景下具有顯著優(yōu)勢。

3.2 劣勢分析

盡管ChatGPT在實際使用中表現(xiàn)驚艷,然而從算力、算法和算據(jù)角度出發(fā),分析其技術(shù)局限性,依然能夠發(fā)現(xiàn)其存在的諸多劣勢。 1) 大規(guī)模模型訓(xùn)練對算力要求極高,構(gòu)建和使用成本高。ChatGPT的算力基礎(chǔ)設(shè)施由28.5萬個CPU和上萬顆英偉達(dá)A100構(gòu)成,業(yè)內(nèi)測算基礎(chǔ)硬件至少需花費10億元,一次模型訓(xùn)練花費超過8 000萬元,重訓(xùn)練一次需2 700萬元。在應(yīng)用時仍然需要大算力的服務(wù)器支持,而這些服務(wù)器的成本是普通用戶無法承受的,即便數(shù)十億個參數(shù)的模型也需要驚人數(shù)量的計算資源才能運行和訓(xùn)練。如果面向真實搜索引擎的數(shù)以億計的用戶請求,如采取目前通行的免費策略,任何企業(yè)均難以承受這一成本。因此對于普通大眾來說,還需等待更輕量型的模型或更高性價比的算力平臺。 2) 大規(guī)模模型的通用局限性依然存在,穩(wěn)定性、準(zhǔn)確性、專業(yè)性和時效性難以保證。 a) 無法掌握分解內(nèi)在算法邏輯。ChatGPT仍然是黑盒模型,目前還未能對ChatGPT的內(nèi)在算法邏輯進行分解,因此并不能保證ChatGPT不會產(chǎn)生攻擊甚至傷害用戶的表述,每次的生成結(jié)果均會有細(xì)微的不同。ChatGPT對輸入敏感,對于某個指令可能回答不正確,但換個表述方式重新提問,又可以回答正確,目前還不夠穩(wěn)定。 b) 在未經(jīng)大量語料訓(xùn)練的領(lǐng)域能力欠缺。ChatGPT在其未經(jīng)大量語料訓(xùn)練的領(lǐng)域缺乏“人類常識”和引申能力,甚至?xí)槐菊?jīng)的“胡說八道”。ChatGPT在很多領(lǐng)域可以“創(chuàng)造答案”,但當(dāng)用戶尋求正確答案時,又可能給出有誤導(dǎo)的回答。例如,讓ChatGPT做一道小學(xué)應(yīng)用題,盡管它可以寫出一長串計算過程,但最后答案卻是錯誤的。 c) 無法處理復(fù)雜冗長或者特別專業(yè)的語言結(jié)構(gòu)。對于來自金融、自然科學(xué)或醫(yī)學(xué)等非常專業(yè)領(lǐng)域的問題,如果沒有進行足夠的語料“喂食”,ChatGPT可能無法生成適當(dāng)?shù)幕卮稹?d) 作為通用模型,在特定任務(wù)下與專業(yè)化模型相比并不具備優(yōu)勢。例如,翻譯能力不如專業(yè)的翻譯工具,騰訊AI實驗室發(fā)布的評測結(jié)果說明,ChatGPT相比于Google Translate,BLEU值低5個點。 e) 無法實時吸納學(xué)習(xí)新知識。ChatGPT還無法在線納入新知識,而出現(xiàn)一些新知識就去重新預(yù)訓(xùn)練GPT模型也是不現(xiàn)實的,無論是訓(xùn)練時間還是訓(xùn)練成本,都是普通訓(xùn)練者難以接受的。如果對于新知識采取在線訓(xùn)練模式,看上去可行且語料成本相對較低,但很容易出現(xiàn)因引入新數(shù)據(jù)而對原有知識災(zāi)難性遺忘的問題。 3) 訓(xùn)練數(shù)據(jù)規(guī)模大,無法徹底清洗,偏見性難以避免。ChatGPT是基于約45 TB現(xiàn)實世界的語言數(shù)據(jù)進行預(yù)訓(xùn)練,再使用12.2萬余條標(biāo)注人員提供的標(biāo)注數(shù)據(jù)進行RLHF,現(xiàn)實世界的語言數(shù)據(jù)中必然存在種族歧視和政治傾向等偏見性,標(biāo)注人員必然有其偏好,例如傾向于更長的答案等,導(dǎo)致ChatGPT可能生成有害內(nèi)容,或者生成啰嗦冗長的結(jié)果等。

4、ChatGPT對軍事安全的挑戰(zhàn)與應(yīng)對策略

ChatGPT采用的生成式方法以及在人機對話中展現(xiàn)的驚人效果,引發(fā)了AIGC(利用人工智能技術(shù)來生成內(nèi)容)產(chǎn)業(yè)鏈的重點關(guān)注,例如,Bing借助ChatGPT提升搜索效果,對常年在搜索領(lǐng)域遙遙領(lǐng)先的Google帶來了巨大沖擊,數(shù)字媒體公司BuzzFeed將依靠ChatGPT來加強部分內(nèi)容創(chuàng)作,微軟宣布將ChatGPT整合進Office。同時,ChatGPT也引起了軍事智能領(lǐng)域的重視,本章重點評估其給軍事安全帶來的挑戰(zhàn),并分析可采取的應(yīng)對策略。

4.1 ChatGPT給軍事安全帶來的挑戰(zhàn)

目前ChatGPT的核心技術(shù)完全掌握在美國的OpenAI手中,尚沒有其他公司能夠復(fù)現(xiàn),根據(jù)ChatGPT展現(xiàn)的技術(shù)能力,其在軍事方面的助力可能覆蓋信息搜索、情報偵察、認(rèn)知域作戰(zhàn)、網(wǎng)絡(luò)攻防和產(chǎn)業(yè)基礎(chǔ)等多個維度,從這些維度出發(fā),分析外軍應(yīng)用ChatGPT可能達(dá)成的能力以及對我國軍事安全帶來的挑戰(zhàn)。ChatGPT應(yīng)用示例如圖6所示。

9160de3e-135c-11ee-962d-dac502259ad0.png

圖6 ChatGPT應(yīng)用示例

1) 信息搜索:ChatGPT軍事應(yīng)用提高了關(guān)鍵信息獲取能力、態(tài)勢認(rèn)知效率與我軍形成落差。通過ChatGPT模型與搜索引擎的結(jié)合,使用傳統(tǒng)搜索引擎的技術(shù)方案,彌補了ChatGPT知識難以更新的劣勢;采用ChatGPT的交互形式,顛覆了現(xiàn)有的基于“文本框+網(wǎng)頁鏈接”的交互方式和內(nèi)容獲取方式,用戶可直接獲取模型歸納好的答案。如圖6(a)所示,對模型提問各國高超聲速武器發(fā)展情況,模型直接提供了歸納好的結(jié)果,節(jié)約了信息閱讀理解和整理的時間,并且能夠通過追問、引導(dǎo)式對話方式,讓搜索引擎更充分理解用戶意圖,逐步聚焦用戶關(guān)注,從而使搜索結(jié)果更滿足用戶快速獲取關(guān)鍵信息的需求。 2) 情報偵察:ChatGPT軍事應(yīng)用模型提供者掌握交互信息,加大了我軍高價值情報泄露的風(fēng)險。ChatGPT中隱含大量開源情報,通過對ChatGPT進行誘導(dǎo)式提問,有望從模型中萃取出高價值信息。相應(yīng)地,因為用戶在使用ChatGPT應(yīng)用時需要與之進行對話,對話過程也是不斷向ChatGPT輸入信息的過程,用戶輸入的對話信息越多,收集到用戶的各種特征越多,就越容易被人工智能進行畫像,如性別、年齡和地域等自然特征,興趣愛好、品牌偏好和產(chǎn)品偏好等興趣特征,以及婚姻情況和社交情況等社會特征等。ChatGPT模型的提供者可以從用戶交互記錄中提取用戶的自然屬性、社會屬性、興趣偏好和意識形態(tài)等各種特征,生成用戶畫像,當(dāng)用戶是軍事領(lǐng)域人員時,通過對話誘導(dǎo)和黑客技術(shù)等方式獲取用戶保存在自己設(shè)備上的涉密信息,可實現(xiàn)情報收集。 3) 認(rèn)知域作戰(zhàn):ChatGPT軍事應(yīng)用輔助生成言論對我民眾發(fā)起傾向性認(rèn)知塑造。美國休斯敦大學(xué)法律中心助理教授尼古拉斯?古根伯格等指出,類似ChatGPT這樣的人工智能能夠針對任何事產(chǎn)生無限的、近乎免費的“觀點”。這些觀點將影響網(wǎng)絡(luò)上的各類活動,網(wǎng)絡(luò)用戶無法知曉在網(wǎng)絡(luò)上與之交流的是否為真實人類。清華大學(xué)計算機科學(xué)與技術(shù)系黃民烈教授表示“ChatGPT已經(jīng)超出了80%甚至90%人的對話能力”。所以,ChatGPT及類似的人工智能與之前的網(wǎng)絡(luò)水軍機器人不同之處在于,它們無需發(fā)送那種幾乎相同的復(fù)制、粘貼的觀點,但可以模仿人類,針對各種主題產(chǎn)生無限的具有連貫性和細(xì)微差別的個性化內(nèi)容,而且它們不僅會主動發(fā)帖,還會對其他用戶的帖子做出回應(yīng),并展開長期對話。因此,基于ChatGPT的社交機器人在被灌輸了人設(shè)、立場和傾向后,能夠隱身互聯(lián)網(wǎng)中,成為認(rèn)知塑造工具,比傳統(tǒng)網(wǎng)絡(luò)水軍更具影響力、隱蔽性,掌握此項能力的一方將占據(jù)認(rèn)知域作戰(zhàn)的優(yōu)勢地位。下面以美國擊落中國民用氣球、新冠起源為例說明。如圖6(c)所示,當(dāng)詢問ChatGPT“中國的民用氣球飄到美國時,美國可不可以將其擊落?”,其回答“可以”;當(dāng)詢問“美國的民用氣球飄到中國時,中國能否將其擊落?”,其回答變成了“不可以”。如圖6(d)所示,當(dāng)詢問新冠病毒是否起源于日本或美國,其回答“不是”;但將詢問對象換成中國后,ChatGPT卻給出了肯定的答復(fù)。GPT-4.0實現(xiàn)了圖文多模態(tài)能力,甚至結(jié)合OpenAI在圖像和音頻生成方面的成果,在認(rèn)知域作戰(zhàn)上的影響力會進一步提升。 4) 網(wǎng)絡(luò)攻防:ChatGPT軍事應(yīng)用豐富了新樣式、新手段,我軍將面臨高強度、高密度的網(wǎng)絡(luò)攻擊。清華大學(xué)新聞學(xué)院教授、新媒體研究中心主任沈陽認(rèn)為,ChatGPT是2022年一項重大技術(shù)突破,這種突破是滲透性、普適性的技術(shù),它實現(xiàn)了文理交叉,不僅能說話,而且會編碼。安全公司Check Point Research警告稱,ChatGPT生成代碼提高工作效率的能力也給黑客打開了新世界的大門,讓他們能夠更為便捷地設(shè)計、編寫和執(zhí)行惡意代碼。黑莓公司發(fā)布的一份報告調(diào)查了英國500名IT行業(yè)從業(yè)者對ChatGPT的看法,發(fā)現(xiàn)76%的人認(rèn)為,外國已經(jīng)在針對其他國家的網(wǎng)絡(luò)戰(zhàn)爭中使用ChatGPT,48%的人認(rèn)為,2023年將會出現(xiàn)有人惡意使用ChatGPT進行“成功”的網(wǎng)絡(luò)攻擊。黑客能夠借助ChatGPT的自然語言和代碼生成能力,快速設(shè)計和開發(fā)惡意代碼,制作網(wǎng)絡(luò)釣魚電子郵件,其工作效率提升將改變網(wǎng)絡(luò)攻防的強度和密度。 5) 輔助決策:ChatGPT軍事應(yīng)用可構(gòu)造指揮控制(指控)領(lǐng)域一體化大模型,外軍作戰(zhàn)決策效率將大幅提升?;赥ransformer的基礎(chǔ)大模型不僅可以生成內(nèi)容,還可以擴展到態(tài)勢預(yù)測和行動控制等領(lǐng)域應(yīng)用。2022年DeepMind推出的“通才(Gato)”就是基于統(tǒng)一Transformer架構(gòu)的智能體,可執(zhí)行600多種任務(wù),包括操作真實機器人手臂疊塊、玩游戲機等復(fù)雜任務(wù)??梢灶A(yù)見,構(gòu)建指控領(lǐng)域一體化大模型,有望賦能態(tài)勢認(rèn)知、決策制定和行動控制等指揮任務(wù)。 6) 產(chǎn)業(yè)基礎(chǔ):ChatGPT軍事應(yīng)用可實現(xiàn)代碼自動生成、修正與解答,使得外軍智能化研發(fā)提速。在代碼生成方面,能夠根據(jù)自然語言描述自動生成具有指定功能的JavaPython、C和C++等多語種代碼,如圖6(b)所示,ChatGPT能夠按照指定編程語言和功能要求生成代碼,開發(fā)者可以直接使用或基于生成的代碼修改,避免簡單重復(fù)工作;在代碼修正方面,可對常見語法和邏輯錯誤提出修改建議,提升了調(diào)試效率;在問題解答方面,可對遇到的問題提供解決思路,可應(yīng)用于方案設(shè)計或技術(shù)研發(fā)。 在人類的軍事史上,經(jīng)歷過強調(diào)能量的焦耳戰(zhàn)和信息賦能的比特戰(zhàn),目前看來,未來極有可能進入以人工智能為戰(zhàn)斗力衡量標(biāo)準(zhǔn)的智能戰(zhàn)。ChatGPT引發(fā)人們對于人工智能已經(jīng)出現(xiàn)奇點的討論,一旦出現(xiàn)以ChatGPT或類似程序廣泛應(yīng)用為標(biāo)志的網(wǎng)絡(luò)戰(zhàn)向智能化升級,人類戰(zhàn)爭維度也將進入新階段。

4.2 軍事安全領(lǐng)域應(yīng)對策略

目前國內(nèi)百度、字節(jié)跳動和網(wǎng)易等公司已有相關(guān)技術(shù)積累和布局,但從技術(shù)能力上,國內(nèi)專家判斷落后ChatGPT約2~3年。軍工領(lǐng)域方面,雖然相關(guān)企業(yè)在自然語言處理技術(shù)方面有所積累,但相關(guān)模型和功能與業(yè)界相比差距較大。目前我國面臨著多個方向的外部威脅,東海問題、臺海問題、南海問題和中印邊境問題都有可能引來美國的介入和搗亂。在和平時期,美國很有可能通過對華認(rèn)知戰(zhàn)、網(wǎng)絡(luò)攻防戰(zhàn),影響我國的正常決策和行動。在戰(zhàn)時,除了對我國合理、合法的軍事行動進行抹黑外,還有可能通過制造大量的假信息,試圖對我國的正常軍事行動產(chǎn)生破壞和干擾。在存在技術(shù)代差的情況下,如何應(yīng)對上述挑戰(zhàn)是守衛(wèi)國家軍事安全的關(guān)鍵。 1) 加強反生成式AI技術(shù)研究,破除、營造“戰(zhàn)場迷霧”。針對ChatGPT及類似模型生成的文本、圖像和音視頻等數(shù)據(jù),研究機器生成內(nèi)容檢測方法,形成類似于DetectGPT(用于檢測AI生成文本的GPT)的內(nèi)容檢測能力,用AI來反AI以破除敵方對我方的“戰(zhàn)場迷霧”。同時,研究偽數(shù)據(jù)生成方法,通過與敵方AI交流,對其灌輸大量干擾性、欺騙性信息,營造的“戰(zhàn)場迷霧”達(dá)到一定數(shù)據(jù)規(guī)模時,能夠?qū)崿F(xiàn)為敵方AI“降智”的效果。 2) 加強網(wǎng)絡(luò)信息安全防御體系,提高網(wǎng)絡(luò)防御響應(yīng)能力。針對ChatGPT及類似模型可能帶來的高強度、高密度網(wǎng)絡(luò)攻擊,研究基于人工智能大數(shù)據(jù)分析的網(wǎng)絡(luò)防御技術(shù),提高網(wǎng)絡(luò)攻擊監(jiān)測、處置等響應(yīng)能力。一方面,可以使用硬件虛化、主成分分析和間隔采樣,提高安全信息防御體系中數(shù)據(jù)采集、存儲、傳輸和交互的速度以及數(shù)據(jù)有效性,提高系統(tǒng)的靈活性和反應(yīng)速度,提升網(wǎng)絡(luò)入侵者有所行動后防御體系的響應(yīng)速度。另一方面,對網(wǎng)絡(luò)入侵行為進行分類統(tǒng)計,篩選出不同類型及其典型案例,提取具有較高普適性的特征來識別網(wǎng)絡(luò)入侵行為,在具備很好響應(yīng)速度的同時,確保監(jiān)控到入侵行為。結(jié)合監(jiān)測模塊和響應(yīng)模塊,在監(jiān)測到網(wǎng)絡(luò)入侵的同時,快速定位病毒,根據(jù)病毒的危害程度給予用戶更多的信息,進而能夠根據(jù)現(xiàn)實情況適當(dāng)?shù)夭扇∵M一步措施,降低損失。 3) 加強軍事智能輔助決策系統(tǒng)建設(shè),提升戰(zhàn)場決策效率。軍事決策不僅考慮要素多,還需進行充分評估和大量計算,涉及復(fù)雜的專業(yè)知識以及嚴(yán)密的邏輯推理。目前ChatGPT及類似模型在專業(yè)性及推理方面還有明顯不足,在輔助決策方面尚難以快速形成顯著優(yōu)勢,我軍應(yīng)以軍事需求為牽引,通過“先進技術(shù)+軍事思維”聯(lián)合打造專業(yè)、嚴(yán)謹(jǐn)、準(zhǔn)確且高效的軍事智能輔助決策系統(tǒng),收集各級各類人員反饋意見,持續(xù)完善系統(tǒng)功能,提升系統(tǒng)先進性、實用性和穩(wěn)定性。 4) 加強軍事數(shù)據(jù)資源建設(shè),夯實軍事智能基礎(chǔ)。海量訓(xùn)練數(shù)據(jù)是ChatGPT強大能力的底座之一,為了更好地加快軍事智能化進程,應(yīng)加快構(gòu)建和完善軍事專業(yè)數(shù)據(jù)資源,包括武器裝備、戰(zhàn)場環(huán)境、戰(zhàn)法規(guī)則、編制體制、作戰(zhàn)力量和情報信息等作戰(zhàn)業(yè)務(wù)數(shù)據(jù),以及標(biāo)注數(shù)據(jù)、算法代碼和智能模型等研發(fā)數(shù)據(jù),對各類數(shù)據(jù)進行標(biāo)準(zhǔn)化管理,便于軍事智能研發(fā)以及各類業(yè)務(wù)調(diào)用,為指揮員和AI輔助決策提供信息支撐,為軍事智能研發(fā)提供相關(guān)成果支撐。

5、結(jié)束語

隨著人工智能技術(shù)的不斷突破,逐步引起了各國的重視,并進入國家戰(zhàn)略規(guī)劃。自然語言處理技術(shù)作為其中的重要分支,受限于其抽象性、歧義性等特征,研究難度極高;但ChatGPT問世以后,讓大眾看到了真正實現(xiàn)自然語言處理最終目標(biāo)的希望,也就是讓機器能夠理解人類語言,用自然語言的方式與人類交流。本文簡要總結(jié)了自然語言處理技術(shù)發(fā)展歷程,追溯GPT家族模型發(fā)展歷程,了解其網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計特點,并重點解析了ChatGPT訓(xùn)練過程,這是其取得閃耀能力的關(guān)鍵。與傳統(tǒng)大規(guī)模預(yù)訓(xùn)練語言模型、聊天機器人和任務(wù)定制模型等典型技術(shù)成果對比,評估了ChatGPT的優(yōu)勢,從算力、算法和算據(jù)3方面總結(jié)其劣勢。根據(jù)ChatGPT具備的智能化能力,結(jié)合其自然流暢、多輪交互和泛化能力強的優(yōu)勢以及知識難以更新、專業(yè)領(lǐng)域能力欠缺等劣勢,從軍事應(yīng)用場景出發(fā),評估其對軍事安全帶來的挑戰(zhàn)。最后,本文提出加強反生成式AI技術(shù)研究、加強網(wǎng)絡(luò)信息安全防御體系、加強軍事智能輔助決策系統(tǒng)建設(shè)以及加強軍事數(shù)據(jù)資源建設(shè)的應(yīng)對策略。ChatGPT和GPT-4.0的下一階段甚至可能會朝向虛擬人的方向繼續(xù)發(fā)展,目前我們面對的是新一輪的軍事革命,軍事安全面臨嚴(yán)峻挑戰(zhàn),唯有加快軍事智能發(fā)展步伐,才能在未來戰(zhàn)爭中制衡對手、戰(zhàn)勝對手。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1806

    文章

    49015

    瀏覽量

    249456
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10788
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1589

    瀏覽量

    9100

原文標(biāo)題:ChatGPT技術(shù)及其對軍事安全影響

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    和安信可Ai-M61模組對話?手搓一個ChatGPT 語音助手 #人工智能 #

    ChatGPT
    jf_31745078
    發(fā)布于 :2025年03月12日 15:56:59

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    ,并廣泛介紹了深度學(xué)習(xí)在兩個主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報行動和自主平臺。最后,討論了相關(guān)的威脅、機遇、技術(shù)和實際困難。主要發(fā)現(xiàn)是,人工智能技術(shù)并非無所不能,需要謹(jǐn)慎應(yīng)用,同時考慮到其局限性、網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-14 11:15 ?538次閱讀

    大語言模型在軍事應(yīng)用中的安全性考量

    大型語言模型(LLM)(如 ChatGPT、Claude 和 Meta AI)的出現(xiàn)是迄今為止人工智能領(lǐng)域最重大的進步。這項新技術(shù)也帶來了新風(fēng)險。眾所周知的例子包括偏見、幻覺、知識產(chǎn)權(quán)(IP)盜竊
    的頭像 發(fā)表于 02-09 10:30 ?455次閱讀

    ChatGPT新增實時搜索與高級語音功能

    在OpenAI的第八天技術(shù)分享直播中,ChatGPT的搜索功能迎來了重大更新。此次更新不僅豐富了ChatGPT的功能體系,更提升了其實用性和競爭力。 新增的實時搜索功能,是此次更新的亮點之一
    的頭像 發(fā)表于 12-17 14:08 ?644次閱讀

    OpenAI發(fā)布滿血版ChatGPT Pro

    ,OpenAI已經(jīng)向所有ChatGPT Plus、Team及Pro用戶開放了對o1模型的完整訪問權(quán)限。同時,公司還推出了ChatGPT Pro訂閱服務(wù),月費為200美元。訂閱用戶將能夠無限制地訪問o1模型及其專屬版本,從而獲得更
    的頭像 發(fā)表于 12-06 11:10 ?818次閱讀

    蘋果iOS 18.2公測版發(fā)布,Siri與ChatGPT深度融合

    用戶的明確許可,以確保用戶的隱私得到充分尊重。蘋果特別強調(diào),在調(diào)用ChatGPT時,會嚴(yán)格隱藏用戶的IP地址,并且蘋果與OpenAI均不會保存用戶的ChatGPT請求記錄,以此保障用戶數(shù)據(jù)的安全。
    的頭像 發(fā)表于 11-07 15:22 ?1055次閱讀

    OpenAI推出ChatGPT搜索功能

    近日,OpenAI再次邁出了重要的一步,為其廣受好評的ChatGPT平臺添加了一項全新的搜索功能。 據(jù)悉,這項被命名為“ChatGPT搜索”的新功能,將為用戶帶來前所未有的搜索體驗。以往,當(dāng)用戶需要
    的頭像 發(fā)表于 11-04 10:34 ?680次閱讀

    ChatGPT:怎樣打造智能客服體驗的重要工具?

    ChatGPT作為智能對話生成模型,可以幫助打造智能客服體驗的重要工具。以下是一些方法和步驟:1.數(shù)據(jù)收集和準(zhǔn)備:收集和整理與客服相關(guān)的數(shù)據(jù),包括常見問題、回答示例、客戶對話記錄等。這將用于訓(xùn)練
    的頭像 發(fā)表于 11-01 11:12 ?441次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗的重要工具?

    ChatGPT 在游戲開發(fā)中的創(chuàng)新應(yīng)用

    在游戲開發(fā)領(lǐng)域,人工智能技術(shù)的應(yīng)用正變得越來越廣泛。ChatGPT,作為一種先進的自然語言處理(NLP)模型,為游戲開發(fā)帶來了許多創(chuàng)新的應(yīng)用。 1. 動態(tài)對話系統(tǒng) ChatGPT的強項之一是生成自然
    的頭像 發(fā)表于 10-25 18:05 ?1165次閱讀

    怎樣搭建基于 ChatGPT 的聊天系統(tǒng)

    搭建一個基于ChatGPT的聊天系統(tǒng)是一個涉及多個步驟的過程,包括理解ChatGPT的API、設(shè)計用戶界面、處理數(shù)據(jù)和集成ChatGPT模型。以下是一個簡化的指南,用于創(chuàng)建一個基本的聊天系統(tǒng)。 1.
    的頭像 發(fā)表于 10-25 16:23 ?1022次閱讀

    ChatGPT 適合哪些行業(yè)

    ChatGPT 是一種基于人工智能的自然語言處理技術(shù),它能夠理解和生成人類語言。這種技術(shù)在多個行業(yè)中都有廣泛的應(yīng)用潛力。以下是一些ChatGPT特別適合的行業(yè),以及它在這些行業(yè)中可能的
    的頭像 發(fā)表于 10-25 16:11 ?996次閱讀

    如何使用 ChatGPT 進行內(nèi)容創(chuàng)作

    使用ChatGPT進行內(nèi)容創(chuàng)作是一個高效且富有創(chuàng)意的過程。以下是一些關(guān)鍵步驟和建議,幫助您充分利用ChatGPT進行內(nèi)容創(chuàng)作: 一、準(zhǔn)備階段 注冊與登錄 : 確保您已注冊ChatGPT賬號,并登錄
    的頭像 發(fā)表于 10-25 16:08 ?1015次閱讀

    華納云:ChatGPT 登陸 Windows

    ChatGPT 現(xiàn)已在 Windows 上推出。 今天,OpenAI宣布已開始預(yù)覽其 AI 聊天機器人平臺ChatGPT的專用 Windows 應(yīng)用程序。 OpenAI 表示, ChatGPT
    的頭像 發(fā)表于 10-18 15:50 ?526次閱讀

    ChatGPT背后的AI背景、技術(shù)門道和商業(yè)應(yīng)用

    作者:京東科技 李俊兵 各位看官好,我是球神(江湖代號)。 自去年11月30日ChatGPT問世以來,迅速爆火出圈。 起初我依然以為這是和當(dāng)年Transformer, Bert一樣的“熱點”模型
    的頭像 發(fā)表于 10-18 15:42 ?4112次閱讀
    <b class='flag-5'>ChatGPT</b>背后的AI背景、<b class='flag-5'>技術(shù)</b>門道和商業(yè)應(yīng)用

    OpenAI承認(rèn)正研發(fā)ChatGPT文本水印

    據(jù)外媒報道,OpenAI已經(jīng)證實正在研究一種用于ChatGPT的文本水印技術(shù),該技術(shù)已經(jīng)能夠高精度地識別出由ChatGPT生成的文章,但是在面對諸如翻譯系統(tǒng)、重寫或特殊字符插入等篡改手
    的頭像 發(fā)表于 08-05 15:56 ?1294次閱讀