大型語(yǔ)言模型將如何影響美國(guó)國(guó)家安全?
ChatGPT風(fēng)靡全球。自2022年11月發(fā)布以來,OpenAI的聊天機(jī)器人在SAT考試中取得了1020高分,通過了醫(yī)療執(zhí)照考試,成功地降低了用戶的有線電視費(fèi)用,甚至起草了如何監(jiān)管AI的立法。從課堂到播客再到餐桌,甚至名人云集的電視節(jié)目,它一直是熱門話題。
關(guān)于ChatGPT對(duì)教育和勞動(dòng)力等領(lǐng)域的影響,有很多評(píng)論。但是這個(gè)“ChatGPT時(shí)刻”,以及更廣泛的大語(yǔ)言模型(Large Language Models,LLMs),對(duì)美國(guó)國(guó)家安全意味著什么?
在戰(zhàn)略層面,各國(guó)將尋求利用AI模型獲得經(jīng)濟(jì)、軍事和國(guó)家安全優(yōu)勢(shì)。正如OpenAI首席執(zhí)行官 Sam Altman在國(guó)家AI安全委員會(huì)(NSCAI)2021年全球新興技術(shù)峰會(huì)期間告訴Eric Schmidt的那樣,“將有多種全球努力來構(gòu)建這些強(qiáng)大的人工智能系統(tǒng),而在世界上獲得我們想要的結(jié)果的最佳方式,即與自由民主制度相一致的AI,將需要我們和我們的盟友首先構(gòu)建它們”
本文的其余部分將概述LLMs的一些戰(zhàn)略考慮,首先評(píng)估我們今天在AI進(jìn)步的高潮中所處的位置,然后轉(zhuǎn)向LLMs對(duì)國(guó)防部、情報(bào)界和更廣泛的美國(guó)國(guó)家安全機(jī)構(gòu)的具體影響。我們將以決策者的關(guān)鍵考慮作為結(jié)尾。
AI進(jìn)步的“ChatGPT時(shí)刻”
ChatGPT并非憑空出現(xiàn)。相反,它是AI快速發(fā)展的更廣泛趨勢(shì)線中的最新數(shù)據(jù)點(diǎn)。近年來,自然語(yǔ)言處理(Natural Language Processing,NLP)以及其他提高機(jī)器任務(wù)性能的機(jī)器學(xué)習(xí)(ML)功能發(fā)展迅速。在OpenAI于2020年發(fā)布GPT-3和2022年底發(fā)布ChatGPT的時(shí)間之間,僅LLMs生態(tài)系統(tǒng)就已經(jīng)發(fā)展到包括來自世界各地的十幾個(gè)實(shí)體,它們已經(jīng)基于開源LLMs發(fā)布模型和構(gòu)建適合特定用途的工具。
LLMs生態(tài)系統(tǒng)中的參與者
今天推動(dòng)LLMs向前發(fā)展的許多主要參與者都是美國(guó)公司。但是,中國(guó)的實(shí)體和公司,以及英國(guó)、以色列、韓國(guó)等國(guó)家的組織,也成為了重要的參與者。雖然美國(guó)私營(yíng)部門具有競(jìng)爭(zhēng)優(yōu)勢(shì),但中國(guó)決心在AI領(lǐng)域超越美國(guó),在各個(gè)領(lǐng)域爭(zhēng)奪領(lǐng)導(dǎo)地位,包括算力、算法、數(shù)據(jù)、應(yīng)用程序、集成和人才。中國(guó)也是LLMs的快速追隨者,百度將在3月份發(fā)布自己的類ChatGPT的聊天機(jī)器人。
更重要的是,我們可以預(yù)期AI生態(tài)系統(tǒng)將進(jìn)一步擴(kuò)展,因?yàn)橛?xùn)練AI模型的障礙(如成本)會(huì)隨著“無代碼AI”等新技術(shù)的出現(xiàn)而減少。美國(guó)必須為世界上越來越多的參與者,從國(guó)家到公司再到個(gè)人,做好準(zhǔn)備,以便能夠?yàn)楦鞣N目的創(chuàng)建和利用定制算法。
事實(shí)上,LLMs等工具正變得越來越實(shí)用和易于使用。據(jù)報(bào)道,在上線的兩個(gè)月里,ChatGPT的月活躍用戶已達(dá)到創(chuàng)紀(jì)錄的1億。TikTok花了九個(gè)月的時(shí)間才達(dá)到這一里程碑。谷歌宣布將很快發(fā)布自己的聊天模型Bard,該模型建立在其內(nèi)部LaMDA模型之上。與許多其他組織一樣,SCSP在最近幾個(gè)月使用LLMs來幫助生成內(nèi)容。在我們的第一份報(bào)告《國(guó)家競(jìng)爭(zhēng)力的中期挑戰(zhàn)》中,我們嘗試了三個(gè)LLM:OpenAI的GPT-3、Hugging Face的BLOOM和Anthropic開發(fā)的模型,向它們?cè)儐枅?bào)告旨在解決的關(guān)鍵問題(大致上,LLMs的回答是合理的)。我們還使用LLMs來幫助撰寫本文的前一版,我們的2022年全球新興技術(shù)峰會(huì)邀請(qǐng)了Anthropic LLM(與Anthropic聯(lián)合創(chuàng)始人Jack Clark一起)回答觀眾的現(xiàn)場(chǎng)提問。
然而,LLMs可以做的不僅僅是談?wù)搰?guó)家安全形勢(shì),他們實(shí)際上開始塑造它。以下是美國(guó)國(guó)家安全企業(yè)中LLMs的一些潛在用例。
美國(guó)國(guó)家安全企業(yè)的機(jī)會(huì)
LLMs作為“智能化intelligentized”工具的接口:類似于ChatGPT的LLMs可以成為人類訪問各種AI工具的接口,包括計(jì)算機(jī)視覺和機(jī)器人技術(shù)。在癌癥篩查等任務(wù)中,人機(jī)團(tuán)隊(duì)(Human-machine teams,HMT)已經(jīng)證明比單獨(dú)使用人類或AI模型更有效。在國(guó)家安全背景下,此類智能化工具可以通過AI生成的預(yù)測(cè)洞察力改變指標(biāo)和警告格局,啟用半自主系統(tǒng),例如使用LLMs來訓(xùn)練有用的機(jī)器人并與之交互,以及支持從物流和供應(yīng)鏈管理到出口管制申請(qǐng)審查的任務(wù)。
LLM和情報(bào):ChatGPT和其他新興技術(shù)有能力在所有情報(bào)學(xué)科(INT)和情報(bào)周期的各個(gè)階段,以及在戰(zhàn)爭(zhēng)的各個(gè)層面為軍隊(duì)建立一個(gè)更強(qiáng)大、更快的情報(bào)社區(qū)。使用ML模型的HMT功能已經(jīng)證明能夠通過過濾大量數(shù)據(jù)和標(biāo)記重要信息來提高情報(bào)處理和分析的效率,并使分析師能夠?qū)W⒂诟钊氲姆治?。LLMs還可以通過幫助生成估計(jì)分析草稿、準(zhǔn)確翻譯外文等來提高生產(chǎn)力。特別是對(duì)于開源情報(bào)(OSINT),具有外部搜索能力和專家知情培訓(xùn)數(shù)據(jù)的LLMs將增強(qiáng)我們的收集和分析能力??梢詾閷?duì)開源情報(bào)中心的需求和情報(bào)目的訓(xùn)練和開發(fā)這些工具。
決策支持:決策優(yōu)勢(shì)將歸于領(lǐng)導(dǎo)人最有能力利用AI模型作為決策支持工具的國(guó)家。通過將AI、數(shù)據(jù)、建模和仿真功能以及預(yù)測(cè)洞察力正確組合,模型將能夠制定出各種政策選項(xiàng),并向人類決策者提供分析。最近的成就,例如AI模型在戰(zhàn)略游戲“強(qiáng)權(quán)外交Diplomacy”中的表現(xiàn)優(yōu)于人類,其中涉及與對(duì)手互動(dòng)和討價(jià)還價(jià),以及在戰(zhàn)爭(zhēng)游戲中展示了這一技術(shù)向量的相當(dāng)大的進(jìn)步,即使還有更多的工作要做。LLMs在做出操作決策的半自治系統(tǒng)中應(yīng)扮演的角色有明顯的局限性。然而,這些“專家”可能是房間里的另一個(gè)聲音,提供關(guān)于政策或戰(zhàn)爭(zhēng)選擇的實(shí)時(shí)、數(shù)據(jù)知情的觀點(diǎn)。
其他重要的國(guó)家安全考慮
信息格局:ChatGPT增加了NSCAI最終報(bào)告第1章中描述的風(fēng)險(xiǎn),即在我們制定適當(dāng)?shù)膶?duì)策之前,我們的對(duì)手轉(zhuǎn)動(dòng)了啟用AI的信息操作的表盤。諸如ChatGPT之類的LLMs可用于以速度和規(guī)模生成獨(dú)特的文本,從而避開現(xiàn)有的過濾系統(tǒng)。也許最重要的是,盡管這些技術(shù)能力在ChatGPT之前就已經(jīng)存在,但隨著公眾的關(guān)注,更多人可能會(huì)質(zhì)疑他們?cè)谏缃幻襟w等上閱讀的內(nèi)容是否由AI生成。我們可能確實(shí)正在進(jìn)入一個(gè)我們消費(fèi)的大部分內(nèi)容都是AI生成的世界,為國(guó)家和非國(guó)家行為者創(chuàng)造新的載體來塑造信息格局。令人欣慰的是,最近合成內(nèi)容檢測(cè)功能的激增,包括OpenAI發(fā)布的文本分類器和C2PA的規(guī)范標(biāo)準(zhǔn),提高了國(guó)家安全專業(yè)人員和知情公民等人將擁有可用于幫助識(shí)別合成媒體的工具的前景。
數(shù)據(jù)和訓(xùn)練是基礎(chǔ):LLMs近年來取得了長(zhǎng)足的進(jìn)步,但它們不是神諭。它們最終只能與訓(xùn)練它們的數(shù)據(jù)一樣好,并且可以產(chǎn)生沒有事實(shí)依據(jù)的“幻覺”信息。它們的使用總是會(huì)帶來相關(guān)的風(fēng)險(xiǎn),人類必須仔細(xì)考慮。盡管如此,LLMs將繼續(xù)激增,因?yàn)閲?guó)家、公司和其他參與者推動(dòng)了最先進(jìn)的技術(shù)水平,并且人們將ChatGPT等工具集成到他們的日常生活中。任何擁有全球技術(shù)野心的國(guó)家都不會(huì)在生態(tài)系統(tǒng)向前發(fā)展時(shí)轉(zhuǎn)身離開。
AI對(duì)抗AI:隨著AI功能被整合到國(guó)家安全設(shè)備中,我們的LLMs可能會(huì)與我們的對(duì)手進(jìn)行測(cè)試,無論是在特定情況下還是為了整體信息優(yōu)勢(shì)。美國(guó)將需要利用私營(yíng)部門的競(jìng)爭(zhēng)優(yōu)勢(shì)來確保我們的LLMs是世界上最好的。此外,我們需要確保美國(guó)軍方和情報(bào)界的AI工具在適當(dāng)情況下能夠與我們的盟友和合作伙伴的AI工具進(jìn)行互操作。
黑匣子問題:隨著我們?cè)絹碓揭蕾嘇I系統(tǒng),我們需要一種方法來解釋和理解它們?!白⒁饬ttention modeling”和“思維鏈推理chain-of-thought reasoning”方面的進(jìn)步是有前途的,但我們?nèi)匀粺o法“查詢”AI應(yīng)用程序以“討論”其思維過程。這一領(lǐng)域的突破將使人類用戶能夠理解AI系統(tǒng)做出特定決定的原因,從而有助于建立對(duì)AI系統(tǒng)的信任。
網(wǎng)絡(luò)安全和代碼:LLMs將通過代碼生成在基礎(chǔ)計(jì)算機(jī)科學(xué)層面影響國(guó)家安全,對(duì)國(guó)家安全機(jī)構(gòu)、企業(yè)和消費(fèi)者產(chǎn)生影響。Copilot是針對(duì)代碼生成進(jìn)行微調(diào)的GPT-3版本,已經(jīng)大大提高了編碼準(zhǔn)確性和生產(chǎn)率。類似的技術(shù)開始用于檢測(cè)和防止零日攻擊,并且通??梢詭椭鷱?qiáng)化代碼。LLMs還將為網(wǎng)絡(luò)安全創(chuàng)造新的風(fēng)險(xiǎn)載體,例如降低惡意網(wǎng)絡(luò)參與者的進(jìn)入門檻。這些風(fēng)險(xiǎn)將使大規(guī)模部署有助于確保我們的網(wǎng)絡(luò)系統(tǒng)安全的AI工具變得更加重要。
跟上技術(shù)的發(fā)展速度:無論是制定AI法規(guī)還是將AI能力整合到人類勞動(dòng)力中,政府都將努力跟上技術(shù)快速發(fā)展的步伐。例如,歐盟委員會(huì)正在努力解決歐盟即將出臺(tái)的AI法案將如何處理ChatGPT等系統(tǒng)的問題,這凸顯了設(shè)置適用于最新功能的治理模型的難度。同樣,工具和技術(shù)的快速變化可能會(huì)導(dǎo)致政府部門和機(jī)構(gòu)采取保守的態(tài)度并繼續(xù)使用時(shí)已經(jīng)過時(shí)的系統(tǒng)。唯一的前進(jìn)方向是讓采購(gòu)流程和治理框架等變得足夠靈活,以便它們能夠跟上AI的步伐。
歸根結(jié)底,無論我們的領(lǐng)導(dǎo)者和組織是否傾向于“ChatGPT時(shí)刻”,LLMs和AI都將更廣泛地重塑國(guó)家安全格局。今天,美國(guó)在LLMs研發(fā)的前沿具有關(guān)鍵的競(jìng)爭(zhēng)優(yōu)勢(shì)。但長(zhǎng)期優(yōu)勢(shì)將通過采用此類工具來塑造,而那些無法適應(yīng)和落后的人將面臨風(fēng)險(xiǎn)。
編輯:黃飛
?
評(píng)論