一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

揭秘Prompt的前世今生

自然語言處理愛好者 ? 來源:RUC AI Box ? 作者:閔映乾 ? 2021-09-01 10:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者|閔映乾機構(gòu)|中國人民大學(xué)信息學(xué)院碩士方向 | 自然語言處理 來自 | RUC AI Box

導(dǎo)讀:本文目標是對近期火爆異常的Prompt相關(guān)研究作一些追溯和展望,內(nèi)容主要參考論文《Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing》,并摻雜了筆者的一些個人見解,歡迎大家積極討論~

論文的arxiv鏈接如下:

https://arxiv.org/abs/2107.13586

一、Prompt的產(chǎn)生和興起

近幾年來,有關(guān)預(yù)訓(xùn)練語言模型(PLM)的研究比比皆是,自然語言處理(NLP)也借著這股春風(fēng)獲得了長足發(fā)展。尤其是在2017-2019年間,研究者們的重心逐漸從傳統(tǒng)task-specific的有監(jiān)督模式轉(zhuǎn)移到預(yù)訓(xùn)練上?;陬A(yù)訓(xùn)練語言模型的研究思路通常是“pre-train, fine-tune”,即將PLM應(yīng)用到下游任務(wù)上,在預(yù)訓(xùn)練階段和微調(diào)階段根據(jù)下游任務(wù)設(shè)計訓(xùn)練對象并對PLM本體進行調(diào)整。

隨著PLM體量的不斷增大,對其進行fine-tune的硬件要求、數(shù)據(jù)需求和實際代價也在不斷上漲。除此之外,豐富多樣的下游任務(wù)也使得預(yù)訓(xùn)練和微調(diào)階段的設(shè)計變得繁瑣復(fù)雜,因此研究者們希望探索出更小巧輕量、更普適高效的方法,Prompt就是一個沿著此方向的嘗試。

融入了Prompt的新模式大致可以歸納成”pre-train, prompt, and predict“,在該模式中,下游任務(wù)被重新調(diào)整成類似預(yù)訓(xùn)練任務(wù)的形式。例如,通常的預(yù)訓(xùn)練任務(wù)有Masked Language Model, 在文本情感分類任務(wù)中,對于 “I love this movie.” 這句輸入,可以在后面加上prompt “The movie is ___” 這樣的形式,然后讓PLM用表示情感的答案填空如 “great”、“fantastic” 等等,最后再將該答案轉(zhuǎn)化成情感分類的標簽,這樣以來,通過選取合適的prompt,我們可以控制模型預(yù)測輸出,從而一個完全無監(jiān)督訓(xùn)練的PLM可以被用來解決各種各樣的下游任務(wù)。

因此,合適的prompt對于模型的效果至關(guān)重要。大量研究表明,prompt的微小差別,可能會造成效果的巨大差異。研究者們就如何設(shè)計prompt做出了各種各樣的努力——自然語言背景知識的融合、自動生成prompt的搜索、不再拘泥于語言形式的prompt探索等等,筆者將會在第三節(jié)進行進一步討論。

二、什么是Prompt

Prompt剛剛出現(xiàn)的時候,還沒有被叫做Prompt,是研究者們?yōu)榱讼掠稳蝿?wù)設(shè)計出來的一種輸入形式或模板,它能夠幫助PLM“回憶”起自己在預(yù)訓(xùn)練時“學(xué)習(xí)”到的東西,因此后來慢慢地被叫做Prompt了。

對于輸入的文本,有函數(shù),將轉(zhuǎn)化成prompt的形式,即:

該函數(shù)通常會進行兩步操作:

使用一個模板,模板通常為一段自然語言,并且包含有兩個空位置:用于填輸入的位置和用于生成答案文本的位置。

把輸入填到的位置。

還用前文提到的例子。在文本情感分類的任務(wù)中,假設(shè)輸入是

“ I love this movie.”

使用的模板是

“ [X] Overall, it was a [Z] movie.”

那么得到的就應(yīng)該是 “I love this movie. Overall it was a [Z] movie.”

在實際的研究中,prompts應(yīng)該有空位置來填充答案,這個位置一般在句中或者句末。如果在句中,一般稱這種prompt為cloze prompt;如果在句末,一般稱這種prompt為prefix prompt。和的位置以及數(shù)量都可能對結(jié)果造成影響,因此可以根據(jù)需要靈活調(diào)整。

另外,上面的例子中prompts都是有意義的自然語言,但實際上其形式并不一定要拘泥于自然語言。現(xiàn)有相關(guān)研究使用虛擬單詞甚至直接使用向量作為prompt,筆者將會在第三節(jié)講到。

下一步會進行答案搜索,顧名思義就是LM尋找填在處可以使得分數(shù)最高的文本 。最后是答案映射。有時LM填充的文本并非任務(wù)需要的最終形式,因此要將此文本映射到最終的輸出。例如,在文本情感分類任務(wù)中,“excellent”, “great”, “wonderful” 等詞都對應(yīng)一個種類 “++”,這時需要將詞語映射到標簽再輸出。

三、Prompt的設(shè)計

Prompt大致可以從下面三個角度進行設(shè)計:

Prompt的形狀

手工設(shè)計模板

自動學(xué)習(xí)模板

Prompt的形狀

Prompt的形狀主要指的是和的位置和數(shù)量。上文提到過cloze prompt和prefix prompt的區(qū)別,在實際應(yīng)用過程中選擇哪一種主要取決于任務(wù)的形式和模型的類別。cloze prompts和Masked Language Model的訓(xùn)練方式非常類似,因此對于使用MLM的任務(wù)來說cloze prompts更加合適;對于生成任務(wù)來說,或者使用自回歸LM解決的任務(wù),prefix prompts就會更加合適;Full text reconstruction models較為通用,因此兩種prompt均適用。另外,對于文本對的分類,prompt模板通常要給輸入預(yù)留兩個空,和。

手工設(shè)計模板

Prompt最開始就是從手工設(shè)計模板開始的。手工設(shè)計一般基于人類的自然語言知識,力求得到語義流暢且高效的模板。例如,Petroni等人在著名的LAMA數(shù)據(jù)集中為知識探針任務(wù)手工設(shè)計了cloze templates;Brown等人為問答、翻譯和探針等任務(wù)設(shè)計了prefix templates。手工設(shè)計模板的好處是較為直觀,但缺點是需要很多實驗、經(jīng)驗以及語言專業(yè)知識,代價較大。

自動學(xué)習(xí)模板

為了解決手工設(shè)計模板的缺點,許多研究開始探究如何自動學(xué)習(xí)到合適的模板。自動學(xué)習(xí)的模板又可以分為離散(Discrete Prompts)和連續(xù)(Continuous Prompts)兩大類。離散的主要包括 Prompt Mining, Prompt Paraphrasing, Gradient-based Search, Prompt Generation 和 Prompt Scoring;連續(xù)的則主要包括Prefix Tuning, Tuning Initialized with Discrete Prompts 和 Hard-Soft Prompt Hybrid Tuning。

離散Prompts

自動生成離散Prompts指的是自動生成由自然語言的詞組成的Prompt,因此其搜索空間是離散的。目前大致可以分成下面幾個方法:

Prompt Mining. 該方法需要一個大的文本庫支持,例如Wikipedia。給定輸入和輸出,要找到和之間的中間詞或者依賴路徑,然后選取出現(xiàn)頻繁的中間詞或依賴路徑作為模板,即“[X] middle words [Z]”。

Prompt Paraphrasing. Paraphrasing-based方法是基于釋義的,主要采用現(xiàn)有的種子prompts(例如手動構(gòu)造),并將其轉(zhuǎn)述成一組其他候選prompts,然后選擇一個在目標任務(wù)上達到最好效果的。一般的做法有:將提示符翻譯成另一種語言,然后再翻譯回來;使用同義或近義短語來替換等。

Gradient-based Search. 梯度下降搜索的方法是在單詞候選集里選擇詞并組合成prompt,利用梯度下降的方式不斷嘗試組合,從而達到讓PLM生成需要的詞的目的。

Prompt Generation. 既然Prompt也是一段文本,那是否可以用文本生成的方式來生成Prompt呢?該類方法就是將標準的自然語言生成的模型用于生成prompts了。例如,Gao等人將T5引入了模板搜索的過程,讓T5生成模板詞;Ben-David 等人提出了一種域自適應(yīng)算法,訓(xùn)練T5為每個輸入生成一種唯一的域相關(guān)特征,然后把輸入和特征連接起來組成模板再用到下游任務(wù)中。

Prompt Scoring. Davison等人在研究知識圖譜補全任務(wù)的時候為三元組輸入(頭實體,關(guān)系,尾實體)設(shè)計了一種模板。首先人工制造一組模板候選,然后把相應(yīng)的[X]和[Z]都填上成為prompts,并使用一個雙向LM給這些prompts打分,最后選取其中的高分prompt。

連續(xù)Prompts

既然構(gòu)造Prompt的初衷是能夠找到一個合適的方法,讓PLM更“聽話”地得出我們想要的結(jié)果,那就不必把prompt的形式拘泥于人類可以理解的自然語言了,只要機器可以理解就好了。因此,還有一些方法探索連續(xù)型prompts——直接作用到模型的embedding空間。連續(xù)型prompts去掉了兩個約束條件:

模板中詞語的embedding可以是整個自然語言的embedding,不再只是有限的一些embedding。

模板的參數(shù)不再直接取PLM的參數(shù),而是有自己獨立的參數(shù),可以通過下游任務(wù)的訓(xùn)練數(shù)據(jù)進行調(diào)整。

目前的連續(xù)prompts方法大致可以分為下面幾種:

Prefix Tuning. Prefix Tuning最開始由Li等人提出,是一種在輸入前添加一串連續(xù)的向量的方法,該方法保持PLM的參數(shù)不動,僅訓(xùn)練合適的前綴(prefix)。它的形式化定義是,在給定一個可訓(xùn)練的前綴矩陣和一個固定的參數(shù)化為的PLM的對數(shù)似然目標上進行優(yōu)化。

141c316e-fd9a-11eb-9bcf-12bb97331649.png

其中

146d48ba-fd9a-11eb-9bcf-12bb97331649.png

指的是所有神經(jīng)網(wǎng)絡(luò)層在第i個時間步的連接。如果對應(yīng)的時間步在前綴中,則它可以直接從前綴矩陣中復(fù)制過來;否則需要使用PLM進行計算。

類似地,Lester等人在輸入序列前面加上特殊的token來組成一個模板,然后直接調(diào)整這些token的embedding。 和上面的Prefix Tuning的方法相比,他們的方法相對來說參數(shù)較少,因為沒有在每一層網(wǎng)絡(luò)中引入額外的參數(shù)。

Tuing Initialized with Discrete Prompts. 這類方法中連續(xù)prompts是用已有的prompts初始化的,已有的prompts可以是手工設(shè)計的,也可以是之前搜索發(fā)現(xiàn)的離散prompts。Zhong 等人先用一個離散prompt搜索方法定義了一個模板,然后基于該模板初始化虛擬的token,最后微調(diào)這些token的embedding以提高準確率。

Hard-Soft Prompt Hybrid Tuning. 這類方法可以說是手工設(shè)計和自動學(xué)習(xí)的結(jié)合,它通常不單純使用可學(xué)習(xí)的prompt模板,而是在手工設(shè)計的模板中插入一些可學(xué)習(xí)的embedding。Liu等人提出了“P-Tuning”方法,通過在input embedding中插入可訓(xùn)練的變量來學(xué)習(xí)連續(xù)的prompts。

并且,該方法使用BiLSTM的輸出來表示prompt embeddings,以便讓prompt tokens之間有一定的交互。P-tuning還引入了任務(wù)相關(guān)的anchor tokens(例如關(guān)系提取中的“capital”)來進一步提高效果,這些anchor tokens不參與后續(xù)的調(diào)優(yōu)。

Han等人提出了Prompt Tunning with Rules(PTR)方法,使用手工指定的子模板按照邏輯規(guī)則組裝成完整的模板。為了增強生成的模板的表示能力,該方法還插入了幾個虛擬token,這些虛擬token的embeddings可以和PLM的參數(shù)一起被調(diào)整,PTR的模板token既有實際token也有虛擬token 。實驗結(jié)果證明了該方法在關(guān)系分類任務(wù)中的有效性。

四、Prompt的挑戰(zhàn)與展望

盡管Prompt相關(guān)研究搞得如火如荼,但目前仍存在許多問題,值得研究者們?nèi)ヌ剿鳌?/p>

Prompt的設(shè)計問題。目前使用Prompt的工作大多集中育分類任務(wù)和生成任務(wù),其它任務(wù)則較少,因為如何有效地將預(yù)訓(xùn)練任務(wù)和prompt聯(lián)系起來還是一個值得探討的問題。另外,模板和答案的聯(lián)系也函待解決。模型的表現(xiàn)同時依賴于使用的模板和答案的轉(zhuǎn)化,如何同時搜索或者學(xué)習(xí)出兩者聯(lián)合的最好效果仍然很具挑戰(zhàn)性。

Prompt的理論分析和可解釋性。盡管Prompt方法在很多情況下都取得了成功,但是目前prompt-based learning的理論分析和保證還很少,使得人們很難了解Prompt為什么能達到好的效果,又為什么在自然語言中意義相近的Prompt有時效果卻相差很大。

Prompt在PLM debias方面的應(yīng)用。由于PLM在預(yù)訓(xùn)練過程中見過了大量的人類世界的自然語言,所以很自然地受到了影響。拿一個簡單的例子來說,可能不太恰當(dāng),比如說訓(xùn)練語料中有很多的“The capital of China is ”Beijing.“,導(dǎo)致模型認為下次看到”capital“ 的時候都會預(yù)測出”Beijing“,而不是著重看到底是哪個國家的首都。

在應(yīng)用的過程中,Prompt還暴露了PLM學(xué)習(xí)到的很多其它bias,比如種族歧視、恐怖主義、性別對立等等。已有相關(guān)研究關(guān)注是否可以利用Prompt來對這些bias進行修正,但還處在比較初級的階段,這也會是一個值得研究的方向。

五、引用

[1] Liu P, Yuan W, Fu J, et al. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing[J]。 arXiv preprint arXiv:2107.13586, 2021.

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • PLM
    PLM
    +關(guān)注

    關(guān)注

    2

    文章

    140

    瀏覽量

    21476
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22631
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    2769

原文標題:NLP新寵——淺談Prompt的前世今生

文章出處:【微信號:NLP_lover,微信公眾號:自然語言處理愛好者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    比亞迪 · 超級e平臺 · 技術(shù)方案的全面揭秘 | 第三曲: 30000轉(zhuǎn)驅(qū)動電機 · 12項核心技術(shù)揭秘

    比亞迪 · 超級e平臺 · 技術(shù)方案的全面揭秘 | 第三曲: 30000轉(zhuǎn)驅(qū)動電機 · 12項核心技術(shù)揭秘
    的頭像 發(fā)表于 06-08 07:20 ?988次閱讀
    比亞迪 · 超級e平臺 · 技術(shù)方案的全面<b class='flag-5'>揭秘</b> | 第三曲: 30000轉(zhuǎn)驅(qū)動電機 · 12項核心技術(shù)<b class='flag-5'>揭秘</b>

    火力全開,ModbusTCP/RTU轉(zhuǎn)ethernet ip協(xié)議網(wǎng)關(guān)的不同應(yīng)用大揭秘

    火力全開,ModbusTCP/RTU轉(zhuǎn)ethernet ip協(xié)議網(wǎng)關(guān)的不同應(yīng)用揭秘
    的頭像 發(fā)表于 05-22 10:22 ?166次閱讀
    火力全開,ModbusTCP/RTU轉(zhuǎn)ethernet ip協(xié)議網(wǎng)關(guān)的不同應(yīng)用大<b class='flag-5'>揭秘</b>

    十種主流電機拆解全解析:內(nèi)部結(jié)構(gòu)大揭秘!

    點擊附件查看全文*附件:十種主流電機拆解全解析:內(nèi)部結(jié)構(gòu)大揭秘!.doc (免責(zé)聲明:本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)容?。?
    發(fā)表于 04-01 14:25

    一文詳解無線電波的前世今生

    在忙碌一天后,您回到裝有智能家居設(shè)備的家里。手機會自動連接到本地網(wǎng)絡(luò),室內(nèi)溫度也很舒適,不冷也不熱。當(dāng)您坐在最喜歡的沙發(fā)上,插上耳機準備聆聽一首動聽的樂曲的時候,家里人走過來讓您連接設(shè)備共享給他一些文件。在這個等待傳輸過程中,你被一臺曾經(jīng)屬于你祖母的舊收音機吸引了目光。剎那間,一切都悵然若失了,你瞥見了過去,回想著過去十年的林林總總,那時還沒有這些短程無線技術(shù)。
    的頭像 發(fā)表于 03-14 17:56 ?762次閱讀
    一文詳解無線電波的<b class='flag-5'>前世</b><b class='flag-5'>今生</b>

    從銅絲迷宮到指尖宇宙:揭秘PCBA加工的起源故事

    將銅絲纏繞成復(fù)雜的蛛網(wǎng)——這是現(xiàn)代PCBA最早的胚胎 , ** 那么今天四川英特麗小編就來PCBA的前世今生吧。 戰(zhàn)爭催生的電路革命 : 1943年深秋的倫敦空襲中,雷達作員瓊斯發(fā)現(xiàn)設(shè)備頻繁失靈。潮濕的地下工事里,手工焊接的電路接頭像受
    的頭像 發(fā)表于 02-26 10:19 ?350次閱讀

    開源項目是怎么練成的:Horizen EDA 的前世今生

    “ ?很多人都知道 KiCad,但 Horizen 卻鮮有人知。同樣是開源的 PCB工具,為什么有了 KiCad 之后還要做 Horizen 呢?Lucas 的演講讓我感慨良多,分享給大家。? ” ? 有興趣的小伙伴可以先看下作者 Lucas 在 FOSDEM 上的演講: Horizen 簡介 和 KiCad 一樣,Horizen 也是一個 PCB 設(shè)計套件,包括元器件管理、原理圖繪制和 PCB Layout。 Horizen EDA 是 GPL3 的 License,官網(wǎng)的地址在這里: https://horizon-eda.org/ Github 的倉庫在這里: https://github.com/horizon-eda/horizon 有意思的是,Horizen最核
    的頭像 發(fā)表于 02-19 19:29 ?818次閱讀
    開源項目是怎么練成的:Horizen EDA 的<b class='flag-5'>前世</b><b class='flag-5'>今生</b>

    物聯(lián)網(wǎng)智能——家用智能控制系統(tǒng)的“前世今生

    ?物聯(lián)網(wǎng)是基于互聯(lián)網(wǎng)延伸和擴展的網(wǎng)絡(luò),將各種信息傳感設(shè)備與互聯(lián)網(wǎng)結(jié)合起來實現(xiàn)在任何時間、任何地點,人、機、物的互聯(lián)互通。而家用智能控制系統(tǒng)在物聯(lián)網(wǎng)的放大之下,在安防、監(jiān)控、家用設(shè)備控制方面從服務(wù)范圍到方式,都有了很大的提升,提高了人們的生活質(zhì)量。 ? 離線語音電動窗簾開關(guān) ??????家用智能控制系統(tǒng)是指在無人干預(yù)的情況下能自主地驅(qū)動智能機器實現(xiàn)控制目標的自動控制技術(shù),借助網(wǎng)絡(luò)將復(fù)雜的控制效果智能化計算和分析
    的頭像 發(fā)表于 02-14 15:27 ?419次閱讀
    物聯(lián)網(wǎng)智能——家用智能控制系統(tǒng)的“<b class='flag-5'>前世</b><b class='flag-5'>今生</b>”

    安泰功率放大器應(yīng)用:納米材料的前世今生

    ,因此在各個領(lǐng)域具有廣泛的應(yīng)用前景。那么你知道納米材料是如何被發(fā)現(xiàn),又是如何走入我們的生活,獲得長足發(fā)展的嗎?今天Aigtek安泰電子帶大家詳細了解一下。 納米材料的前世今生 1861年,隨著膠體化學(xué)的建立,科學(xué)家們開始了對直徑為
    的頭像 發(fā)表于 01-02 14:05 ?476次閱讀
    安泰功率放大器應(yīng)用:納米材料的<b class='flag-5'>前世</b><b class='flag-5'>今生</b>

    深入了解Java泛型——從前世今生到PECS原則

    本文主要介紹泛型誕生的前世今生,特性,以及著名PECS原則的由來。 在日常開發(fā)中,必不可少的會使用到泛型,這個過程中經(jīng)常會出現(xiàn)類似“為什么這樣會編譯報錯?”,“為什么這個列表無法添加
    的頭像 發(fā)表于 11-21 11:45 ?543次閱讀
    深入了解Java泛型——從<b class='flag-5'>前世</b><b class='flag-5'>今生</b>到PECS原則

    400Hz中頻電源前世今生未來

    400Hz中頻電源是一種能夠產(chǎn)生頻率為400Hz的交流電的裝置,過功率電子器件對電網(wǎng)提供的工頻交流電進行整流、濾波、逆變等一系列處理,最終輸出穩(wěn)定的400Hz交流電。400Hz中頻電源廣泛用于航空、軍事等領(lǐng)域,具有輸入輸出電壓穩(wěn)定、頻率響應(yīng)快等特點,能高效節(jié)能,易于集成控制,應(yīng)用于航空、船舶、鐵路、醫(yī)療等領(lǐng)域。
    的頭像 發(fā)表于 11-08 09:41 ?1006次閱讀

    AI對話魔法 Prompt Engineering 探索指南

    作者:京東物流 李雪婷 一、什么是 Prompt Engineering? 想象一下,你在和一個智能助手聊天,你需要說出非常清晰和具體的要求,才能得到你想要的答案。Prompt
    的頭像 發(fā)表于 11-07 10:11 ?1453次閱讀
    AI對話魔法 <b class='flag-5'>Prompt</b> Engineering 探索指南

    帶你揭秘:功率放大器的前世今生~

    關(guān)于功率放大器功率放大器,作為一種可放大交直流信號,在給定失真率條件下,能產(chǎn)生最大功率輸出以驅(qū)動某一負載的實驗室儀器,在MEMS測試、超聲波測試、電磁場驅(qū)動、無線電能傳輸、院校電子實驗測試等領(lǐng)域都有良好應(yīng)用,那么你知道功放的發(fā)展史嗎?今天Aigtek就給大家分享一下~功率放大器發(fā)展史功率放大器的發(fā)展史可以追溯至20世紀初,隨著電子技術(shù)的不斷進步,功率放大器也
    的頭像 發(fā)表于 11-07 08:00 ?2284次閱讀
    帶你<b class='flag-5'>揭秘</b>:功率放大器的<b class='flag-5'>前世</b><b class='flag-5'>今生</b>~

    揭秘共模電感漏感對使用有影響嗎

    電子發(fā)燒友網(wǎng)站提供《揭秘共模電感漏感對使用有影響嗎.docx》資料免費下載
    發(fā)表于 09-30 14:45 ?1次下載

    LDO噪聲揭秘

    電子發(fā)燒友網(wǎng)站提供《LDO噪聲揭秘.pdf》資料免費下載
    發(fā)表于 09-21 09:13 ?0次下載
    LDO噪聲<b class='flag-5'>揭秘</b>

    DM368 NAND Flash啟動揭秘

    電子發(fā)燒友網(wǎng)站提供《DM368 NAND Flash啟動揭秘.pdf》資料免費下載
    發(fā)表于 08-27 09:22 ?0次下載
    DM368 NAND Flash啟動<b class='flag-5'>揭秘</b>