一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

采用P-Tuning解決非英語下游任務

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-10-10 11:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著對預訓練大型語言模型( LLM )權重訪問需求的增加,圍繞 LLM 共享的環(huán)境正在發(fā)生變化。最近, Meta 發(fā)布了 開式預訓練Transformer ,一個具有 1750 億個參數(shù)的語言模型。 BigScience 計劃在幾個月內發(fā)布具有 1760 億個參數(shù)的多語言模型。

隨著越來越多的 LLM 可用,行業(yè)需要解決實際自然語言任務的技術。研究表明, 模型提示方法 可以從 LLM 中獲得良好的零拍和少拍性能,并有助于在各種下游自然語言處理( NLP )任務中產生高質量的結果。白皮書提出了一種解決方案,使經過預訓練的通用 LLM 在自然語言處理領域日益流行的新 預訓練、提示和預測 范式中切實有用。

然而,當您將提示方法應用于工業(yè)自然語言處理應用程序時,還需要考慮其他挑戰(zhàn)。對于任何下游 NLP 任務,必須收集標記數(shù)據,以指示語言模型如何生成預期結果。

盡管對于許多任務,有大量標記的英語數(shù)據,但很少有具有基準價值的非英語下游數(shù)據集。標記數(shù)據的稀缺性是業(yè)界在低資源語言環(huán)境中執(zhí)行自然語言處理任務的首要挑戰(zhàn)。

此外,公司通常必須動態(tài)解決多個下游非線性規(guī)劃任務,這些任務可以隨著時間的推移而演變。在不忘記先前學習任務的情況下對新任務進行連續(xù)學習仍然是一個熱門的研究課題。一個好的、干凈的解決方案意味著更低的模型維護、更低的部署成本和快速的開發(fā)。

在本文中,我們將向您展示如何將 p-tuning (一種快速學習方法)適應于低資源的語言設置。我們使用在 NVIDIA NeMo 中實現(xiàn)的 improved version p-tuning ,它支持虛擬提示的連續(xù)多任務學習。特別是,我們將重點放在使我們的英語 p-tuning 工作流適應瑞典語。 Learn more 關于瑞典的一個財團計劃如何在北歐地區(qū)提供語言模型。

我們提出的工作流是通用的,可以很容易地為其他語言修改。

為什么選擇大型語言模型?

如 OpenAI 的 語言模型比例律研究 所示,語言模型的性能隨著語言模型大小的增加而提高。這導致了訓練越來越大的語言模型的競賽。

NVIDIA 最近培訓了一名 Megatron 圖靈 NLG 530B 該模型具有優(yōu)越的零拍和少拍學習性能。為了訪問 LLM ,研究人員可以使用付費模型 API ,例如 OpenAI 提供的 API ,或者在本地部署公開發(fā)布的模型。

當您有一個能夠很好地理解語言的 LLM 時,您可以應用 即時學習方法 使該模型解決過多的非線性規(guī)劃下游任務。

快速學習和 p- 調優(yōu)的簡要概述

與手動或自動選擇離散文本提示不同, prompt learning 使用虛擬提示嵌入,可以使用梯度下降進行優(yōu)化。這些虛擬嵌入會從文本提示自動插入到離散令牌嵌入中。

在即時學習期間,整個 GPT 模型被凍結,并且在每個訓練步驟中僅更新這些虛擬令牌嵌入。提示學習過程會產生少量虛擬令牌嵌入,這些嵌入可以與文本提示相結合,以提高推理時的任務性能。

具體來說,在 p- 調諧中,使用一個小的長短時記憶( LSTM )模型作為提示編碼器。提示編碼器的輸入是任務名稱,輸出是特定于任務的虛擬令牌嵌入,與文本提示嵌入一起傳遞到 LLM 。

多任務連續(xù)學習解決方案

圖 2 顯示了 p-tuning 使用提示編碼器生成虛擬令牌嵌入。在 原始 p 調諧紙 中,提示編碼器只能用于一個任務。我們在我們的 NeMo 實現(xiàn) 因此,提示編碼器可以根據不同任務的名稱進行調整。

訓練提示編碼器時,它將任務名稱映射到一組虛擬令牌嵌入。這使您能夠構建一個嵌入表,該表存儲每個任務的任務名稱和虛擬令牌嵌入之間的映射。使用此嵌入表可以不斷學習新任務,避免災難性遺忘。例如,可以使用任務 A 和 B 啟動 p-tuning 。

訓練后,您可以將任務 A 和 B 的虛擬令牌嵌入保存在表中,并將其凍結。您可以使用另一個新的提示編碼器繼續(xù)訓練任務 C 。類似地,在訓練后,將任務 C 的虛擬令牌嵌入保存在提示表中。在推理過程中,該模型可以查找提示表,并為不同的任務使用正確的虛擬令牌嵌入。

除了持續(xù)學習能力外, p-tuning 的 modified version 還有幾個其他優(yōu)點。首先,我們的實現(xiàn)引出了質量模型預測。今年早些時候,我們在 GTC 2022 年關于使用 P-tuning 可以顯著提高大型非線性規(guī)劃模型的性能 的會議上,展示了 p- 調優(yōu)有助于實現(xiàn)下游非線性規(guī)劃任務的最先進精度。

其次, p- 調優(yōu)只需要幾個標記的數(shù)據點就可以給出合理的結果。例如,對于 FIQA 情緒分析任務 ,它使用了 1000 個數(shù)據示例來實現(xiàn) 92% 的準確性。

第三,原始文件中描述的 p- 調優(yōu),在我們的具體實現(xiàn)中更是如此,是極其高效的參數(shù)。在 p- 調整期間,參數(shù)等于原始 GPT 模型參數(shù)的一小部分的 LSTM 被調整,而 GPT 模型權重保持不變。在訓練結束時,可以丟棄 LSTM 網絡,只需要保存虛擬提示本身。這意味著在推理過程中必須存儲和使用總計小于 GPT 模型大小約 0.01% 的參數(shù),以實現(xiàn)與零次和少次推理相比顯著提高的任務性能。

第四, p-tuning 在訓練期間也更節(jié)省資源。凍結 GPT 模型意味著我們不必為這些模型參數(shù)存儲優(yōu)化器狀態(tài),也不必花時間更新 GPT 模型權重。這節(jié)省了大量 GPU 內存。

最后,虛擬提示令牌參數(shù)與 GPT 模型解耦。這使得能夠分發(fā)小型虛擬令牌參數(shù)文件,這些文件可以插入共享訪問 GPT 模型,而不需要共享更新的 GPT 模型權重,這是微調 GPT 模型時所需要的。

創(chuàng)建瑞典下游任務數(shù)據集

為了將 p-tuning 應用于非英語下游任務,我們在目標語言中標記了數(shù)據。由于有大量的英文標簽下游任務數(shù)據,我們使用機器翻譯模型將這些英文標簽數(shù)據翻譯成目標低資源語言。在這篇文章中,我們將英文數(shù)據翻譯成瑞典語。由于 p-tuning 的低標記數(shù)據要求,我們不需要翻譯很多標記數(shù)據點。

為了完全控制翻譯模型,我們選擇使用從頭開始訓練的內部翻譯模型。該模型采用英語到瑞典語/挪威語(一對多)的方向,使用 NeMo NMT 工具包。 訓練數(shù)據(平行語料庫)來自 Opus 。英語到瑞典語的翻譯質量由母語為英語和瑞典語的人手動評估。

我們還使用了其他翻譯模型來幫助檢查我們的翻譯模型的質量。我們翻譯了一些來自原始英語基準數(shù)據的隨機樣本,并手動檢查了其他模型翻譯與我們自己的模型翻譯的質量。我們使用了 deepL 、 谷歌翻譯 API 和 DeepTranslator 。

除了一些時鐘和時間系統(tǒng)錯誤外,整體翻譯質量足夠好,我們可以繼續(xù)將英語標記的數(shù)據轉換為瑞典語。隨著我們的 NeMo 非負矩陣變換英語 – 瑞典語翻譯模型的訓練和驗證完成,我們使用該模型翻譯了兩個英語基準數(shù)據集:

財務情緒分析 ( FIQA )

Assistant Benchmarking (助手)

為了方便起見,我們使用 svFIQA 和 svAssistant 來區(qū)分原始英語和翻譯后的瑞典基準數(shù)據集。

以下是分別從 FIQA 和 svFIQA 中隨機選取的培訓記錄示例:

英語:

{"taskname": "sentiment-task", "sentence": "Barclays PLC & Lloyds Banking Group PLC Are The 2 Banks I'd Buy Today. Sentiment for Lloyds ", "label": "positive"}

瑞典的:

{"taskname": "sentiment-task", "sentence": "Barclays PLC & Lloyds Banking Group PLC ?r de 2 banker jag skulle k?pa idag.. K?nslor f?r Lloyds", "label": "positiva"}

翻譯后的數(shù)據集應保留實際英語源數(shù)據的正確語法結構。因為情緒指的是兩家銀行,所以是復數(shù)。翻譯成瑞典語的地面實況標簽也應反映正確的瑞典語語法,即“ positiva ”。

為了完整性起見,我們還從 Assistant 和 svAssistant 中隨機選擇了一個示例:

英語:

{"taskname": "intent_and_slot", "utterance": "will you please get the coffee machine to make some coffee", "label": "\nIntent: iot_coffee\nSlots: device_type(coffee machine)"}

瑞典的:

{"taskname": "intent_and_slot", "utterance": "kommer du sn?lla f? kaffemaskinen f?r att g?ra lite kaffe", "label": "Intent: iot _ kaffe Slots: enhet _ typ (kaffemaskin)"}

GPT 模型

以下實驗中使用的瑞典 GPT-SW3 檢查點是瑞典 AI 和 NVIDIA 合作的結果。更具體地說, AI 瑞典的 GPT-SW3 檢查點具有 36 億個參數(shù),使用威震天 LM 進行預訓練。該模型用于進行本文所述的瑞典多任務 p- 調整實驗。

多任務 p- 調諧實驗

為了模擬典型的企業(yè)客戶用例,我們設想了一個場景,其中用戶首先需要高精度地解決情感分析非線性規(guī)劃任務。隨后,隨著業(yè)務的發(fā)展,用戶需要繼續(xù)使用相同的模型解決虛擬助理任務,以降低成本。

我們在瑞典語的連續(xù)學習設置中運行了兩次 p-tuning 。我們將 svFIQA 數(shù)據集用于第一個自然語言處理任務。然后,我們將 svAssistant 數(shù)據集用于第二個 NLP 任務。

我們可以同時對這兩個任務進行 p-tuned 。然而,我們選擇連續(xù)進行兩輪 p 調整,以展示 NeMo 中的連續(xù)快速學習能力。

我們首先使用該 p-tuning 教程筆記本 的稍微修改版本,對 svFIQA 和 svAssistant 進行了一系列短期超參數(shù)調優(yōu)實驗。在這些實驗中,我們確定了每個任務的最佳虛擬令牌數(shù)量和最佳虛擬令牌放置。

為了在文本提示中操作虛擬令牌的總數(shù)及其位置,我們在 p-tuning 模型的訓練配置文件中修改了以下sentiment任務模板。

 "taskname": "sentiment", "prompt_template": "<|VIRTUAL_PROMPT_0|> {sentence} <|VIRTUAL_PROMPT_1|>sentiment:{label}", "total_virtual_tokens": 16, "virtual_token_splits": [10,6], "truncate_field": None, "answer_only_loss": True, "answer_field": "label",

此提示模板是特定于語言的。除了虛擬令牌的位置和使用的虛擬令牌的數(shù)量外,將每個提示模板中的單詞翻譯成目標語言也很重要。在這里,術語“情緒”(添加在最終虛擬提示令牌和標簽之間)應翻譯成瑞典語。

在我們的實驗中,我們使用了 10 倍交叉驗證來計算性能指標。在我們的超參數(shù)搜索過程中,我們對瑞典 GPT-SW3 模型進行了第一次 p- 調優(yōu),直到驗證損失在 10-20 個階段后趨于穩(wěn)定。

在以這種方式進行了幾輪實驗后,我們決定對 svFIQA 數(shù)據集的所有 10 倍使用以下模板:

 "taskname": "sentiment-task", "prompt_template": "<|VIRTUAL_PROMPT_0|> {sentence}:{label}", "total_virtual_tokens": 10, "virtual_token_splits": [10], "truncate_field": None, "answer_only_loss": True, "answer_field": "label",

術語“情緒”從提示模板中刪除,而是直接包含在提示的{sentence}部分。這使我們能夠輕松地將“感悟”與英語句子的其余部分一起翻譯成瑞典語:

{"taskname": "sentiment-task", "sentence": "Barclays PLC & Lloyds Banking Group PLC ?r de 2 banker jag skulle k?pa idag.. K?nslor f?r Lloyds", "label": "positiva"}

在找到最佳訓練配置后,我們在 10 個 svFIQA 折疊中的每個折疊上對瑞典 GPT-SW3 模型進行了 p- 調優(yōu)。我們評估了對應測試分割上每個折疊的 p- 調整檢查點。通過對 svAssistant 數(shù)據集重復相同的步驟,我們向 GPT-SW3 模型中添加了意向和時隙預測功能,這次恢復了在 svFIQA 上訓練的檢查點,并添加了意向和時隙任務。

后果

為了建立一個基線,并且由于在這種情況下沒有瑞典現(xiàn)有的基準,我們使用原始 AI 瑞典 GPT-SW3 模型的零、一和少數(shù)鏡頭學習性能作為基線。

可以看出,除了零炮外, svFIQA 上的少數(shù)炮學習性能為 42-52% ??梢岳斫?,由于 GPT 模型接收到零標記示例,零炮的性能明顯較差。該模型生成的令牌很可能與給定任務無關。

考慮到情緒分析任務的二元性,在計算任務準確性之前,我們將單詞“ positive ”和“ negative ”的所有瑞典語法變體映射到相同的格式。

通過這種重映射機制,我們取得了相當好的結果: 82.65% 。 svFIQA 測試中的 p- 調諧性能在所有 10 倍中取平均值。

表 2 顯示了 svAssistant 數(shù)據集(意向和時隙分類)上第二輪 p 調整的結果。所有 10 倍的分數(shù)也取平均值。

接下來,我們進一步探討了這個問題, “ 在不降低性能的情況下,我們可以減少多少訓練數(shù)據總量? ”

對于 svFIQA 數(shù)據集,我們發(fā)現(xiàn)我們可以在每次訓練運行中只獲得十分之一的訓練數(shù)據,并且仍然保持可接受的性能。然而,從 5% 的訓練數(shù)據開始(只有 47 個訓練數(shù)據點),我們開始看到性能急劇下降,性能在 1% 左右變得不穩(wěn)定(只有 9 個訓練數(shù)據點,平均 6 次訓練,每個訓練有 9 個隨機采樣的數(shù)據點)。

今后的工作

我們注意到,可以改進意向和時隙分類的結果。它們在很大程度上依賴于翻譯模型將非自然文本從英語翻譯為瑞典語的能力。在下面的示例中,英語意圖和時隙提示格式對于翻譯模型來說很難準確翻譯,從而影響了瑞典語翻譯的質量。

英文標簽為“意圖: alarm \ u set Slots : date ( sunday ), 時間(上午八點)” 。

當它被翻譯成瑞典語時,它變成了 “時間(上午八點)” 。

翻譯模型完全跳過了“意圖”和“槽:”這兩個詞。它還刪除了 intent 中alarm_set和插槽中date(sunday)的翻譯。

未來,我們將把源語言數(shù)據表述為自然語言,然后再將其翻譯成目標語言。我們還嘗試了一種預訓練的 mT5 模型,該模型可以完全跳過翻譯步驟。早期的結果是有希望的,所以請關注完整的結果。

最后,我們還計劃將快速學習方法與基本 GPT 模型的完全微調進行比較。這將使我們能夠比較兩種任務適應方法之間的權衡。

結論

在這篇文章中,我們展示了一種參數(shù)高效的解決方案,可以在低資源語言環(huán)境中解決多個自然語言處理任務。針對瑞典語,我們將英語情感分類和意圖/時隙分類數(shù)據集翻譯成瑞典語。然后,我們在這些數(shù)據集上對瑞典 GPT-SW3 模型進行了 p- 調優(yōu),與我們的幾個快照學習基線相比,取得了良好的性能。

我們表明,我們的方法可以幫助您訓練提示編碼器,只需將原始訓練數(shù)據的十分之一調整到模型原始參數(shù)的 0.1% 以下,同時仍能保持性能。

由于 LLM 在訓練過程中被凍結, p-tuning 需要更少的資源,整個訓練過程可以高效快速地完成,這使得任何人都可以訪問 LLM 。您可以帶上自己的數(shù)據,并根據自己的用例調整模型。

在我們的 NeMo p- 調諧實現(xiàn)中,我們還簡化了輕量級的連續(xù)學習。您可以使用我們的方法不斷學習和部署新任務,而不會降低以前添加的任務的性能。

關于作者

Virginia Adams 是一位深度學習應用科學家,與 NVIDIA 對話人工智能團隊( NeMo )合作開發(fā)自然語言處理應用程序。 2018 年,她獲得了麻省理工學院中文系計算機科學學士學位。她在深度學習領域有四年的專業(yè)經驗,目前正在斯坦福大學攻讀計算機科學碩士學位。在工作之外,你可以看到維吉尼亞在讀科幻小說,嘗試新的運動。

Zenodia Charpy 是高級深度學習解決方案架構師,專注于應用自然語言處理和深度學習技術來應對非英語和低資源語言的挑戰(zhàn),例如瑞典語、丹麥語和挪威語。作為一名數(shù)據科學家,她在解決現(xiàn)實世界問題、構建端到端解決方案方面擁有八年的豐富經驗,她既是一名內部數(shù)據科學家,也是一名數(shù)據科學顧問。在空閑時間,她喜歡在森林里散步或跑步,做瑜伽。

Yi Dong 是 NVIDIA 的深度學習解決方案架構師,負責提供金融服務業(yè)人工智能解決方案。易建聯(lián)獲得了博士學位。來自約翰·霍普金斯大學醫(yī)學院,研究計算神經科學。易在計算機軟件工程、機器學習和金融領域擁有 10 年的工作經驗。易建聯(lián)喜歡閱讀深度學習的最新進展,并將其應用于解決財務問題。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3808

    瀏覽量

    138086
  • NVIDIA
    +關注

    關注

    14

    文章

    5309

    瀏覽量

    106433
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22626
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Hyperabrupt Junction Tuning 變容二極管芯片 skyworksinc

    電子發(fā)燒友網為你提供()Hyperabrupt Junction Tuning 變容二極管芯片相關產品參數(shù)、數(shù)據手冊,更有Hyperabrupt Junction Tuning 變容二極管芯片的引腳
    發(fā)表于 07-11 18:31
    Hyperabrupt Junction <b class='flag-5'>Tuning</b> 變容二極管芯片 skyworksinc

    Hyperabrupt Junction Tuning 變容二極管 skyworksinc

    電子發(fā)燒友網為你提供()Hyperabrupt Junction Tuning 變容二極管相關產品參數(shù)、數(shù)據手冊,更有Hyperabrupt Junction Tuning 變容二極管的引腳圖
    發(fā)表于 07-10 18:32
    Hyperabrupt Junction <b class='flag-5'>Tuning</b> 變容二極管 skyworksinc

    Hyperabrupt Junction Tuning Varactor skyworksinc

    電子發(fā)燒友網為你提供()Hyperabrupt Junction Tuning Varactor相關產品參數(shù)、數(shù)據手冊,更有Hyperabrupt Junction Tuning Varactor
    發(fā)表于 07-09 18:34
    Hyperabrupt Junction <b class='flag-5'>Tuning</b> Varactor skyworksinc

    EZ-USB? HX3PD否可以將兩個PD端口用作下游USB端口?

    你好! 我想在設計中使用EZ-USB? HX3PD 控制器。 但我需要 2 個下游電源傳輸源端口,而不需要上游 PD 端口。數(shù)據表上寫著:“上游(US)和一個下游(DS)端口中的USB PD 端口
    發(fā)表于 04-30 08:00

    采用雙時鐘機制下的XL2407P芯片

    網和帶ACK的通信模式。發(fā)射輸出功率、工作頻道以及通信數(shù)據率均可配置。 XL2407P內含以EPROM作為內存的8位微控制器,專為多組PWM的應用設計。例如燈控, 遙控車應用。采用CMOS制程并同時提供客戶低成本、高性能、及高性價比等顯著優(yōu)勢。 XL2407
    的頭像 發(fā)表于 04-07 10:43 ?225次閱讀
    <b class='flag-5'>采用</b>雙時鐘機制下的XL2407<b class='flag-5'>P</b>芯片

    Linux計劃任務cron詳解

    cron是linux下用來周期性的執(zhí)行某種任務或等待處理某些事件的一個守護進程,與windows下的計劃任務類似,當安裝完成操作系統(tǒng)后,默認會安裝此服務 工具,并且會自動啟動crond進程,crond進程每分鐘會定期檢查是否有要執(zhí)行的
    的頭像 發(fā)表于 02-07 15:31 ?991次閱讀
    Linux計劃<b class='flag-5'>任務</b>cron詳解

    采用AD62P29進行模數(shù)轉換,對正弦信號的轉換后的波形不連續(xù),會出現(xiàn)臺階?為什么?

    為什么我們采用AD62P29進行模數(shù)轉換,對正弦信號的轉換后的波形不連續(xù),會出現(xiàn)臺階?
    發(fā)表于 02-06 07:13

    采用ADS62P25進行模數(shù)轉換,為什么輸出的數(shù)據很亂?

    我們采用ADS62P25進行模數(shù)轉換,采用并行接口控制(SCLK接AGND,SEN接AVDD,CTRL1、CTRL2、CTRL3接AGND),CMOS模式輸出,內參考。為什么輸出的數(shù)據很亂?
    發(fā)表于 02-05 07:03

    使用DAC161P997輸出4~20mA,如果采用單線控制,應該如何配置?

    使用DAC161P997輸出4~20mA,目前采用如下的接法,已移植TI的MSP430的例程,但例程采用的3根線控制。 問題是,如果采用單線控制,應該如何配置?
    發(fā)表于 01-15 06:55

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調技術解讀

    Tuning)和Prompt-Tuning:通過在輸入序列中添加特定提示來引導模型生成期望的輸出,簡單有效,適用于多種任務。P-Tuning v1和
    發(fā)表于 01-14 16:51

    Linux計劃任務介紹

    1.計劃任務(定時任務)基本概述 1.什么是crond crond就是計劃任務,類似于我們平時生活中的鬧鐘。定點執(zhí)行。 2.為什么要使用crond?crond主要是做一些周期性的任務,
    的頭像 發(fā)表于 11-24 15:49 ?804次閱讀

    使用PPC3軟件,進入Tuning and Audio Processing模塊后,喇叭就不發(fā)聲了怎么解決?

    我在使用PPC3軟件,進入Tuning and Audio Processing模塊后,喇叭就不發(fā)聲了,這個問題怎么解決? 同樣的硬件配置,在別人可以正常使用PPC3軟件的電腦上用起來沒有問題,我
    發(fā)表于 10-12 07:58

    干貨|連接器常用英語

    連接器中有著各式各樣的常用英語術語,本篇文章分享了「連接器產品零部件」與「連接器測試」中常用的英語,下面跟著小欣學習收藏一下吧。連接器產品零部件英語術語A.連接器連接器connector/conn.
    的頭像 發(fā)表于 09-21 08:00 ?7343次閱讀
    干貨|連接器常用<b class='flag-5'>英語</b>

    freertos最多支持多少個任務

    FreeRTOS是一個輕量級的實時操作系統(tǒng)(RTOS),其設計初衷就是為了提供簡單、可靠且高效的實時任務管理。關于FreeRTOS最多支持多少個任務的問題,實際上并沒有一個固定的上限,這主要取決于
    的頭像 發(fā)表于 09-02 14:21 ?2276次閱讀

    linux定時任務的用法總結

    習慣了使用 windows 的計劃任務,使用 linux 中的 crontab 管理定時任務時很不適應。
    的頭像 發(fā)表于 08-14 18:16 ?1152次閱讀
    linux定時<b class='flag-5'>任務</b>的用法總結