一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基礎(chǔ)模型自監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-07-24 16:55 ? 次閱讀
大型語言模型如 ChatGPT 的成功彰顯了海量數(shù)據(jù)在捕捉語言模式和知識方面的巨大潛力,這也推動了基于大量數(shù)據(jù)的視覺模型研究。在計算視覺領(lǐng)域,標注數(shù)據(jù)通常難以獲取,自監(jiān)督學(xué)習(xí)成為預(yù)訓(xùn)練的主流方法。然而,在自監(jiān)督預(yù)訓(xùn)練中,是否數(shù)據(jù)越多越好?數(shù)據(jù)增廣是否始終有效?華為諾亞方舟實驗室與香港科技大學(xué)的研究團隊近期發(fā)現(xiàn):主流自監(jiān)督預(yù)訓(xùn)練方法如 Masked Autoencoder (MAE) 存在負遷移現(xiàn)象,即在預(yù)訓(xùn)練過程中包含無關(guān)數(shù)據(jù)可能導(dǎo)致下游任務(wù)性能下降。面向 MAE 的有效數(shù)據(jù)增強策略仍有待探討。區(qū)別于對比學(xué)習(xí)高度依賴數(shù)據(jù)增強策略,在 MAE 中采用數(shù)據(jù)增強策略,如簡單的圖像混合,可能會導(dǎo)致互信息 (MI) 的增加而降低模型性能。為解開這些數(shù)據(jù)之謎,研究團隊提出了一種新穎的預(yù)訓(xùn)練范式——Mixture of Cluster-conditional Experts (MoCE)。借鑒 Mixture-of-Experts (MoE) 的概念,MoCE 可以通過一次預(yù)訓(xùn)練,為不同下游任務(wù)提供定制化模型。在多個下游任務(wù)中,包括圖像分類、目標檢測和分割等,MoCE 超越了傳統(tǒng)的 MAE 預(yù)訓(xùn)練方法。該研究成果已被 ICLR 2023 會議接收為 Spotlight 論文。2e6c133e-29ff-11ee-a368-dac502259ad0.png ?論文標題:Task-customized Masked Autoencoder via Mixture of Cluster-conditional Experts

論文鏈接:

https://openreview.net/forum?id=j8IiQUM33s

此外,團隊還提出了一種名為混合自編碼器 (MixedAE) 的簡單而有效的方法,將圖像混合應(yīng)用于 MAE 數(shù)據(jù)增強。MixedAE 在各種下游任務(wù)(包括圖像分類、語義分割和目標檢測)上實現(xiàn)了最先進的遷移性能,同時保持了顯著的效率。這是第一個從任務(wù)設(shè)計的角度將圖像混合作為有效數(shù)據(jù)增強策略應(yīng)用于基于純自編碼器結(jié)構(gòu)的 Masked Image Modeling (MIM) 的研究。該工作已被 CVPR 2023 會議接收。

2e8fe020-29ff-11ee-a368-dac502259ad0.png

論文標題:Mixed Autoencoder for Self-supervised Visual Representation Learning

論文鏈接:

https://arxiv.org/abs/2303.17152 2eaa6440-29ff-11ee-a368-dac502259ad0.png ?

研究背景

機器學(xué)習(xí)領(lǐng)域,預(yù)訓(xùn)練模型已經(jīng)成為一種流行的方法,可以提高各種下游任務(wù)的性能。然而,研究發(fā)現(xiàn),自監(jiān)督預(yù)訓(xùn)練存在的負遷移現(xiàn)象。諾亞 AI 基礎(chǔ)理論團隊的前期工作 SDR (AAAI 2022) [1] 首次指出自監(jiān)督預(yù)訓(xùn)練的負遷移問題,并提供初步解決方案。具體來說,負遷移是指在預(yù)訓(xùn)練過程中使用的數(shù)據(jù)與下游任務(wù)的數(shù)據(jù)分布不同,導(dǎo)致預(yù)訓(xùn)練模型在下游任務(wù)上的性能下降。在自監(jiān)督學(xué)習(xí)中,模型在無標簽數(shù)據(jù)上進行預(yù)訓(xùn)練,學(xué)習(xí)數(shù)據(jù)的潛在特征和表示。然而,當預(yù)訓(xùn)練數(shù)據(jù)與下游任務(wù)的數(shù)據(jù)分布存在顯著差異時,模型可能學(xué)到與下游任務(wù)無關(guān)或甚至有害的特征。

2ec2233c-29ff-11ee-a368-dac502259ad0.png ?相關(guān)工作1. 自監(jiān)督預(yù)訓(xùn)練的負遷移現(xiàn)象

2ee0f370-29ff-11ee-a368-dac502259ad0.png

▲圖一:我們用ImageNet的兩個子集,Split-A和Split-B,訓(xùn)練兩個MAE模型,和全量數(shù)據(jù)集訓(xùn)練的模型相比較,后者僅在2個數(shù)據(jù)集上達到了最優(yōu)。這說明,增大數(shù)據(jù)量并不總是帶來更強的遷移效果。

以目前較為流行的自監(jiān)督學(xué)習(xí)算法 MAE 為例,我們評估了使用不同語義數(shù)據(jù)進行預(yù)訓(xùn)練的 MAE 模型在遷移性能上的表現(xiàn)。我們將 ImageNet 數(shù)據(jù)集分為兩個不相交的子集 Split-A 和 Split-B,根據(jù) WordNet 樹中標簽的語義差異進行劃分。Split-A 主要包含無生命物體(如汽車和飛機),而 Split-B 則主要涉及有機體(如植物和動物)。接著,我們在 Split-A、Split-B 和完整的 ImageNet 數(shù)據(jù)集上分別進行了 MAE 預(yù)訓(xùn)練,并在 11 個下游任務(wù)上評估了這三個模型的性能。如圖一所示,在僅含 2 個語義豐富數(shù)據(jù)集(Caltech,VOC)的情況下,基于完整 ImageNet 訓(xùn)練的 MAE 獲得了最佳的遷移效果;在非生物下游數(shù)據(jù)集 (Aircraft,Cars,SUN,DTD) 上,Split-A 的表現(xiàn)更佳;而在包含 Flowers,F(xiàn)ood,Pets,CIFAR10,CIFAR100 等數(shù)據(jù)集上,Split-B 的表現(xiàn)更優(yōu)。這表明,當下游任務(wù)與預(yù)訓(xùn)練數(shù)據(jù)分布不同時,與任務(wù)無關(guān)的預(yù)訓(xùn)練信息可能導(dǎo)致負遷移,從而限制了 MAE 模型的可擴展性。換言之,若一個 MAE 模型的預(yù)訓(xùn)練數(shù)據(jù)去除了與下游任務(wù)數(shù)據(jù)集相似度較低的部分,則其性能可能優(yōu)于包含這些無關(guān)數(shù)據(jù)的預(yù)訓(xùn)練模型。這突顯了開發(fā)針對特定下游任務(wù)的定制化預(yù)訓(xùn)練方法以避免負遷移現(xiàn)象的重要性。2. 自監(jiān)督數(shù)據(jù)增強難題在自監(jiān)督預(yù)訓(xùn)練中,與依賴數(shù)據(jù)增強的對比學(xué)習(xí)不同,我們發(fā)現(xiàn)傳統(tǒng)數(shù)據(jù)增強手段可能會削弱 MAE 的模型性能。以圖像混合增強(Image Mixing)為例,設(shè)隨機變量 X1 和 X2 表示兩個輸入圖像,M 表示隨機生成的掩碼,我們可以證明混合輸入 σmix({X1,X2},M) 與重構(gòu)目標 X1 之間的互信息 (MI) 不小于 MAE 輸入 σmae(X1,M) 與 X1 之間的互信息(詳見論文附錄)。2f0e4654-29ff-11ee-a368-dac502259ad0.png因此,簡單的圖像混合增強會提升模型輸入與重構(gòu)目標之間的互信息。盡管這對監(jiān)督學(xué)習(xí)和對比學(xué)習(xí)有益,但它卻簡化了 MAE 的圖像重構(gòu)任務(wù),因為掩碼操作 (masking) 的根本目的恰恰是降低模型輸入和重構(gòu)目標之間的互信息,以減少圖像信號的冗余。這表明以 MAE 為代表的掩碼圖像建模對數(shù)據(jù)增強具有與傳統(tǒng)判別式訓(xùn)練范式不同的偏好,進而帶來了 MAE 自監(jiān)督學(xué)習(xí)中的數(shù)據(jù)增強難題。 2f22e41a-29ff-11ee-a368-dac502259ad0.png ?方法1. MoCEMixture of Cluster-conditional Expert (MoCE) 通過數(shù)據(jù)聚類和顯式地使用具有相似語義的圖像來訓(xùn)練每個專家,以實現(xiàn)針對特定任務(wù)的定制自監(jiān)督預(yù)訓(xùn)練。MoCE 的過程分為三個階段,具體如下:1. 首先,我們使用預(yù)先訓(xùn)練好的 MAE 模型對整個數(shù)據(jù)集進行聚類。每張圖片被分到不同的聚類中,并記錄每個聚類的中心點,形成矩陣 C。2. 然后,受 Mixture-of-Experts (MoE) 多專家模型的啟發(fā),我們構(gòu)建了基于聚類先驗的 MoCE 模型。與目前常用的視覺多專家模型將每個圖像的 token 路由到某個專家不同,MoCE 讓每個專家負責(zé)訓(xùn)練一組相似的聚類圖片,使得每個專家在不同語義數(shù)據(jù)上得到顯式訓(xùn)練。具體來說,現(xiàn)有的視覺多專家模型基于 ViT 構(gòu)建,將原先某些 Transformer Block 中的單個 MLP 層擴展為多個 MLP 層,每個 MLP 被稱作一個專家 (expert)。同時引入一個門控網(wǎng)絡(luò) (gate network),該門控網(wǎng)絡(luò)決定每個 token 應(yīng)該去往哪個專家。MoCE 多專家層的核心改變是門控網(wǎng)絡(luò)的輸入:2f3b9a1e-29ff-11ee-a368-dac502259ad0.png這里,C[x] 表示 token x 所屬圖片所在的聚類中心(我們在第一步已經(jīng)完成了聚類),而不是原先的 token 嵌入。這樣,屬于同一個聚類的圖片的 tokens 都會被路由到同一個專家,從而顯式地區(qū)分每個專家在語義上的差異。為了穩(wěn)定訓(xùn)練并增強門控網(wǎng)絡(luò)的置信度,我們提出了兩個額外的正則化損失,并在實驗中發(fā)現(xiàn)了它們的有效性。3. 當下游任務(wù)到達時,我們引入了一個搜索模塊來選擇最適合用于遷移學(xué)習(xí)的專家。具體而言,我們重復(fù)利用第一步提到的聚類模塊,找到與下游數(shù)據(jù)集最相似的聚類,然后找到該聚類所訓(xùn)練的專家,將其單獨提取出來,舍棄其他專家進行遷移。這樣,在下游任務(wù)中,我們始終使用一個正常大小的 ViT 模型。2. MixedAEMixed Autoencoder (MixedAE) 提出輔助代理任務(wù)——同源識別(Homologous recognition),旨在顯示要求每個圖像塊識別混合圖像中的同源圖像塊以緩解圖像混合所導(dǎo)致的互信息上升,從而實現(xiàn)物體感知的自監(jiān)督預(yù)訓(xùn)練。MixedAE 的過程分為三個階段,具體如下:1. 混合階段:在給定混合系數(shù) r 的情況下,將輸入圖像隨機劃分為不同的圖像組,并根據(jù) r 對每個圖像組進行隨機混合,生成混合圖像。2. 識別階段:鑒于 Vision Transformer 中全局自注意力的使用,在重構(gòu)過程中,各個圖像塊不可避免地與來自其他圖像的異源圖像塊發(fā)生交互,從而導(dǎo)致互信息的上升。因此我們提出同源自注意力機制 (Homologous attention),通過部署一個簡單的 TopK 采樣操作,要求每個圖像塊顯示識別并僅與同源圖像塊做自注意力計算,以抑制互信息的上升。2f571b9a-29ff-11ee-a368-dac502259ad0.png3. 驗證階段:為了驗證同源自注意力的準確性,我們提出同源對比損失 (Homologous contrasitve)。對于任意查詢圖像塊 (query patch),我們將其同源圖像塊視為正樣本,異源圖像塊作為負樣本,以促進同源圖像塊特征的相似度,從而顯示要求圖像塊識別并僅和同源圖像塊做自注意力計算。最后,同源對比損失將和原始圖像重構(gòu)損失一起以多任務(wù)形式優(yōu)化網(wǎng)絡(luò)參數(shù)進行自監(jiān)督預(yù)訓(xùn)練。 2f74073c-29ff-11ee-a368-dac502259ad0.png ?

實驗分析

1. MoCE

我們在之前提到的 11 個下游分類數(shù)據(jù)集和檢測分割任務(wù)上做了實驗。實驗結(jié)果表明,MoCE 在多個下游任務(wù)中的性能超過了傳統(tǒng)的 MAE 預(yù)訓(xùn)練方法。具體而言,在圖像分類任務(wù)中,MoCE 相較于 MAE 實現(xiàn)了更高的準確率。在目標檢測和分割任務(wù)中,MoCE 也取得了更好的表現(xiàn),包括更高的 mIoU 和 AP 指標。這些實驗結(jié)果表明,MoCE 通過利用相似語義圖像進行聚類并為每個專家進行任務(wù)定制的自監(jiān)督預(yù)訓(xùn)練,能夠在各種下游任務(wù)中提高遷移性能。

2f8c2614-29ff-11ee-a368-dac502259ad0.png▲表一:MoCE在細粒度數(shù)據(jù)集上有較大提升,在類別比較寬泛的任務(wù)上也有少量提升。2. MixedAE

在 14 個下游視覺任務(wù)(包括圖像分類、語義分割和物體檢測)的評估中,MixedAE 展現(xiàn)了最優(yōu)的遷移性能和卓越的計算效率。相較于 iBOT,MixedAE 實現(xiàn)了約 2 倍預(yù)訓(xùn)練加速。得益于圖像混合所帶來的物體感知預(yù)訓(xùn)練,MixedAE 在下游密集預(yù)測任務(wù)上取得更顯著的性能提升。注意力圖可視化結(jié)果表明,MixedAE 能比 MAE 更準確完整地識別圖像前景物體,從而實現(xiàn)優(yōu)異的密集預(yù)測遷移性能。

2fdd4f4e-29ff-11ee-a368-dac502259ad0.png表二:MixedAE在不同訓(xùn)練代價下均獲得當前最優(yōu)結(jié)果,展現(xiàn)了卓越的計算效率。

30217476-29ff-11ee-a368-dac502259ad0.png

▲圖二:注意力圖可視化。得益于ImageNet的單實例假設(shè)[2]以及物體感知的自監(jiān)督預(yù)訓(xùn)練,MixedAE可以更準確完整地發(fā)現(xiàn)圖像前景物體,從而實現(xiàn)更好的密集預(yù)測遷移性能。

30a6743c-29ff-11ee-a368-dac502259ad0.png ?作者介紹結(jié)合 MoCE 和 MixedAE 的研究發(fā)現(xiàn),我們揭示了自監(jiān)督預(yù)訓(xùn)練中數(shù)據(jù)之謎:數(shù)據(jù)量不再是唯一關(guān)鍵因素,而是如何利用數(shù)據(jù)和進行定制化預(yù)訓(xùn)練和數(shù)據(jù)增廣更為關(guān)鍵。MoCE 通過數(shù)據(jù)聚類和專家定制訓(xùn)練,顯著提高了針對特定下游任務(wù)的遷移性能。MixedAE 則通過一種簡單有效的圖像混合方法,實現(xiàn)了在各種下游任務(wù)中的最先進遷移性能。這些研究發(fā)現(xiàn)不僅為自監(jiān)督預(yù)訓(xùn)練領(lǐng)域提供了新的視角,還為開發(fā)更為高效、可擴展和定制化的預(yù)訓(xùn)練方法提供了指導(dǎo)和啟示。我們希望這些探索是一個有效利用更多數(shù)據(jù)量的途徑,并為研究者們提供新的思路。 30bea20a-29ff-11ee-a368-dac502259ad0.svg

參考文獻

30bea20a-29ff-11ee-a368-dac502259ad0.svg ?

[1] Task-customized Self-supervised Pre-training with Scalable Dynamic Routing, AAAI 2022.

[2] MultiSiam: Self-supervised Multi-instance Siamese Representation Learning for Autonomous Driving, ICCV 2021.

·


原文標題:基礎(chǔ)模型自監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:基礎(chǔ)模型自監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    用PaddleNLP為GPT-2模型制作FineWeb二進制預(yù)訓(xùn)練數(shù)據(jù)

    ,使用PaddleNLP將FineWeb數(shù)據(jù)集中文本形式的數(shù)據(jù),經(jīng)過分詞化(Tokenize),轉(zhuǎn)換為大語言模型能直接使用的二進制數(shù)據(jù),以便提升訓(xùn)練
    的頭像 發(fā)表于 03-21 18:24 ?311次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>集

    室內(nèi)導(dǎo)航究竟是如何實現(xiàn)的

    作為物聯(lián)網(wǎng)智能硬件的引領(lǐng)者,云里物里當然不是來聊電影的,而是想借此機會,和大家探討一下:室內(nèi)導(dǎo)航究竟是如何實現(xiàn)的?它背后的技術(shù)原理是什么?接下來,讓我們一起揭開室內(nèi)導(dǎo)航的神秘面紗。
    的頭像 發(fā)表于 02-12 13:50 ?337次閱讀

    ADS1298R PACE_OUT1和PACE_OUT2這兩條引腿究竟是輸入還是輸出?有什么用?怎樣使用?

    PACE_OUT1和PACE_OUT2這兩條引腿究竟是輸入還是輸出?有什么用?怎樣使用?
    發(fā)表于 02-12 07:56

    PCM1861 INT腳究竟是輸出還是輸入?

    這個芯片activce或是idle. 是否有人解釋下,INT腳究竟是輸出還是輸入。我希望是輸出,我需要讀取到是否有analog audio輸入的信息。 或者,輸入輸出與否還要靠其他什么地方設(shè)置? 盼望有人回復(fù)解答,不勝感激!
    發(fā)表于 10-29 07:29

    AI大模型訓(xùn)練數(shù)據(jù)來源分析

    學(xué)術(shù)機構(gòu)、政府組織或企業(yè)公開發(fā)布,涵蓋了各種類型的數(shù)據(jù),如圖像、文本、音頻、視頻等。例如: ImageNet :一個廣泛用于圖像識別任務(wù)的大規(guī)模圖像數(shù)據(jù)集。 Common Crawl :提供了大量的網(wǎng)頁抓取
    的頭像 發(fā)表于 10-23 15:32 ?2908次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報告題目
    的頭像 發(fā)表于 10-18 08:09 ?465次閱讀
    直播預(yù)約 |<b class='flag-5'>數(shù)據(jù)</b>智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    揭秘貼片功率電感發(fā)燙究竟是不是燒壞了

    電子發(fā)燒友網(wǎng)站提供《揭秘貼片功率電感發(fā)燙究竟是不是燒壞了.docx》資料免費下載
    發(fā)表于 09-30 14:44 ?0次下載

    電感器線徑究竟是粗好還是細好

    電子發(fā)燒友網(wǎng)站提供《電感器線徑究竟是粗好還是細好.docx》資料免費下載
    發(fā)表于 09-20 11:25 ?0次下載

    運放輸入偏置電流的方向是流入運放芯片還是流出運放芯片?這個怎么確定的?

    運放輸入偏置電流的方向究竟是流入運放芯片還是流出運放芯片這個怎么確定的?是不是得看運放是三級管還是MOS管組成的,三極管還得看究竟是NPN還是
    發(fā)表于 08-23 07:29

    tas5756m使用GPIO口加內(nèi)部PLL產(chǎn)生MCLK的方法究竟是怎么樣的?

    tas5756m使用GPIO口加內(nèi)部PLL產(chǎn)生MCLK的方法究竟是怎么樣的?
    發(fā)表于 08-19 06:06

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機器學(xué)習(xí)領(lǐng)域中的兩個重要概念,它們在提高模型性能、減少訓(xùn)練時間和降低對數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定
    的頭像 發(fā)表于 07-11 10:12 ?1780次閱讀

    大語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點。大語言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標簽數(shù)據(jù)上進行訓(xùn)練,使
    的頭像 發(fā)表于 07-11 10:11 ?815次閱讀

    人臉識別模型訓(xùn)練流程

    準備階段,需要收集大量的人臉圖像數(shù)據(jù),并進行數(shù)據(jù)清洗、標注和增強等操作。 1.1 數(shù)據(jù)收集 數(shù)據(jù)收集是人臉識別
    的頭像 發(fā)表于 07-04 09:19 ?1608次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機器學(xué)習(xí)領(lǐng)域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)等領(lǐng)域中得到了廣泛應(yīng)用。預(yù)
    的頭像 發(fā)表于 07-03 18:20 ?3939次閱讀

    請問cH340G的TX引腳電平究竟是3v還是5v?

    用CD34G來實現(xiàn)usb轉(zhuǎn)串口的時候,直接用usb口的5v作為電源電壓,它的tx引腳輸出的高電平究竟是5v還是3v,我實測是3v,但網(wǎng)上有的人是5v,想進一步得到大家的確認。
    發(fā)表于 05-14 08:15