一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

盤點數(shù)據(jù)科學和機器學習面試中的常見問題

DPVg_AI_era ? 來源:lp ? 2019-03-20 08:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文盤點了數(shù)據(jù)科學和機器學習面試中的常見問題,著眼于不同類型的面試問題。如果您計劃向數(shù)據(jù)科學領(lǐng)域轉(zhuǎn)行,這些問題一定會有所幫助。本文約5000字,閱讀大約需要10分鐘。

技術(shù)的不斷進步使得數(shù)據(jù)和信息的產(chǎn)生速度今非昔比,并且呈現(xiàn)出繼續(xù)增長的趨勢。此外,目前對解釋、分析和使用這些數(shù)據(jù)的技術(shù)人員需求也很高,這在未來幾年內(nèi)會呈指數(shù)增長。這些新角色涵蓋了從戰(zhàn)略、運營到管理的所有方面。因此,當前和未來的需求將需要更多的數(shù)據(jù)科學家、數(shù)據(jù)工程師、數(shù)據(jù)戰(zhàn)略家和首席數(shù)據(jù)官這樣類似的角色。

本文將著眼于不同類型的面試問題。如果您計劃向數(shù)據(jù)科學領(lǐng)域轉(zhuǎn)行,這些問題一定會有所幫助。

統(tǒng)計學及數(shù)據(jù)科學面試題答案

在統(tǒng)計學研究中,統(tǒng)計學中最常見的三個“平均值”是均值,中位數(shù)和眾數(shù):

算術(shù)平均值:它是統(tǒng)計學中的一個重要概念。算術(shù)平均值也可稱為平均值,它是通過將兩個或多個數(shù)字/變量相加,然后將總和除以數(shù)字/變量的總數(shù)而獲得的數(shù)量或變量。

中位數(shù):中位數(shù)也是觀察一組數(shù)據(jù)平均情況的一種方法。它是一組數(shù)字的中間數(shù)字。結(jié)果有兩種可能性,因為數(shù)據(jù)總數(shù)可能是奇數(shù),也可能是偶數(shù)。如果總數(shù)是奇數(shù),則將組中的數(shù)字從最小到最大排列。中位數(shù)恰好是位于中間的數(shù),兩側(cè)的數(shù)量相等。如果總數(shù)是偶數(shù),則按順序排列數(shù)字并選擇兩個中間數(shù)字并加上它們?nèi)缓蟪?,它將是該組的中位數(shù)。

眾數(shù):眾數(shù)也是觀察平均情況的方法之一。眾數(shù)是一個數(shù)字,指在一組數(shù)字中出現(xiàn)最多的數(shù)字。有些數(shù)列可能沒有任何眾數(shù);有些可能有兩個眾數(shù),稱為雙峰數(shù)列。

標準差(Sigma):標準差用于衡量數(shù)據(jù)在統(tǒng)計數(shù)據(jù)中的離散程度。

回歸:回歸是統(tǒng)計建模中的一種分析方法。這是衡量變量間關(guān)系的統(tǒng)計過程;它決定了一個變量和一系列其他自變量之間關(guān)系的強度。

線性回歸:是預測分析中使用的統(tǒng)計技術(shù)之一,該技術(shù)將確定自變量對因變量的影響強度。

統(tǒng)計學的兩個主要分支:

描述性統(tǒng)計:描述性統(tǒng)計使用類似均值或標準差的指數(shù)來總結(jié)樣本數(shù)據(jù)。描述性統(tǒng)計方法包括展示、組織和描述數(shù)據(jù)。

推斷性統(tǒng)計:推斷統(tǒng)計得出的結(jié)論來自隨機變化的數(shù)據(jù),如觀察誤差和樣本變異。

相關(guān)性:相關(guān)性被認為是測量和估計兩個變量間定量關(guān)系的最佳技術(shù)。相關(guān)性可以衡量兩個變量相關(guān)程度的強弱。

協(xié)方差:協(xié)方差對應的兩個變量一同變化,它用于度量兩個隨機變量在周期中的變化程度。這是一個統(tǒng)計術(shù)語;它解釋了一對隨機變量之間的關(guān)系,其中一個變量的變化時,另一個變量如何變化。

協(xié)方差和相關(guān)性是兩個數(shù)學概念;這兩種方法在統(tǒng)計學中被廣泛使用。相關(guān)性和協(xié)方差都可以構(gòu)建關(guān)系,并且還可測量兩個隨機變量之間的依賴關(guān)系。雖然這兩者在數(shù)學上有相似之處,但它們含義并不同。

結(jié)合數(shù)據(jù)分析,統(tǒng)計可以用于分析數(shù)據(jù),并幫助企業(yè)做出正確的決策。預測性“分析”和“統(tǒng)計”對于分析當前數(shù)據(jù)和歷史數(shù)據(jù)以預測未來事件非常有用。

統(tǒng)計數(shù)據(jù)可用于許多研究領(lǐng)域。以下列舉了統(tǒng)計的應用領(lǐng)域:

科學

技術(shù)

商業(yè)

生物學

計算機科學

化學

支持決策

提供比較

解釋已經(jīng)發(fā)生的行為

預測未來

估計未知數(shù)量

在統(tǒng)計研究中,通過結(jié)構(gòu)化和統(tǒng)一處理,樣本是從統(tǒng)計總體中收集或處理的一組或部分數(shù)據(jù),并且樣本中的元素被稱為樣本點。

以下是4種抽樣方法:

聚類抽樣:在聚類抽樣方法中,總體將被分為群組或群集。

簡單隨機抽樣:這種抽樣方法僅僅遵循隨機分配。

分層抽樣:在分層抽樣中,數(shù)據(jù)將分為組或分層。

系統(tǒng)抽樣:根據(jù)系統(tǒng)抽樣方法,每隔k個成員,從總體中抽取一個。

當我們在統(tǒng)計中進行假設檢驗時,p值有助于我們確定結(jié)果的顯著性。這些假設檢驗僅僅是為了檢驗關(guān)于總體假設的有效性。零假設是指假設和樣本沒有顯著性差異,這種差異指抽樣或?qū)嶒灡旧碓斐傻牟町悺?/p>

數(shù)據(jù)科學是數(shù)據(jù)驅(qū)動的科學,它還涉及自動化科學方法、算法、系統(tǒng)和過程的跨學科領(lǐng)域,以任何形式(結(jié)構(gòu)化或非結(jié)構(gòu)化)從數(shù)據(jù)中提取信息和知識。此外,它與數(shù)據(jù)挖掘有相似之處,它們都從數(shù)據(jù)中抽象出有用的信息。

數(shù)據(jù)科學包括數(shù)理統(tǒng)計以及計算機科學和應用。此外,結(jié)合了統(tǒng)計學、可視化、應用數(shù)學、計算機科學等各個領(lǐng)域,數(shù)據(jù)科學將海量數(shù)據(jù)轉(zhuǎn)化為洞見。

同樣,統(tǒng)計學是數(shù)據(jù)科學的主要組成部分之一。統(tǒng)計學是數(shù)學商業(yè)的一個分支,它包括數(shù)據(jù)的收集、分析、解釋、組織和展示。

R語言類面試題答案

R是數(shù)據(jù)分析軟件,主要的服務對象是分析師、量化分析人員、統(tǒng)計學家、數(shù)據(jù)科學家等。

R提供的函數(shù)是:

均值

中位數(shù)

分布

協(xié)方差

回歸

非線性模型

混合效果

廣義線性模型(GLM)

廣義加性模型(GAM)等等

在R控制臺中輸入命令(“Rcmdr”)將啟動R Commander GUI。

使用R commander導入R中的數(shù)據(jù),有三種方法可以輸入數(shù)據(jù)。

你可以通過Data<- New Data Set 直接輸入數(shù)據(jù)

從純文本(ASCII)或其他文件(SPSS,Minitab等)導入數(shù)據(jù)

通過鍵入數(shù)據(jù)集的名稱或在對話框中選擇數(shù)據(jù)集來讀取數(shù)據(jù)集

雖然R可以輕松連接到DBMS,但不是數(shù)據(jù)庫

R不包含任何圖形用戶界面

雖然它可以連接到Excel / Microsoft Office,但R語言不提供任何數(shù)據(jù)的電子表格視圖

在R中,在程序的任何地方,你必須在#sign前面加上代碼行,例如:

減法

除法

注意運算順序

要在R中保存數(shù)據(jù),有很多方法,但最簡單的方法是:

Data > Active Data Set > Export Active dataset,將出現(xiàn)一個對話框,當單擊確定時,對話框?qū)⒏鶕?jù)常用的方式保存數(shù)據(jù)。

你可以通過cor()函數(shù)返回相關(guān)系數(shù),cov()函數(shù)返回協(xié)方差。

在R中,t.test()函數(shù)用于進行各種t檢驗。t檢驗是統(tǒng)計學中最常見的檢驗,用于確定兩組的均值是否相等。

With()函數(shù)類似于SAS中的DATA,它將表達式應用于數(shù)據(jù)集。

BY()函數(shù)將函數(shù)應用于因子的每個水平。它類似于SAS中的BY。

R 有如下這些數(shù)據(jù)結(jié)構(gòu):

向量

矩陣

數(shù)組

數(shù)據(jù)框

通用的形式是:

Mymatrix< - matrix (vector, ?nrow=r, ?ncol=c , byrow=FALSE, dimnames = list ( char_vector_ rowname, char_vector_colnames)

在R中,缺失值由NA(Not Available)表示,不可能的值由符號NaN(not a number)表示。

為了重新整理數(shù)據(jù),R提供了各種方法,轉(zhuǎn)置是重塑數(shù)據(jù)集的最簡單的方法。為了轉(zhuǎn)置矩陣或數(shù)據(jù)框,可以使用t()函數(shù)。

通過一個或多個BY變量,使得折疊R中的數(shù)據(jù)變得容易。使用aggregate()函數(shù)時,BY變量應該在列表中。

機器學習類面試題答案

機器學習是人工智能的一種應用,它為系統(tǒng)提供了自動學習和改進經(jīng)驗的能力,而無需明確的編程。此外,機器學習側(cè)重于開發(fā)可以訪問數(shù)據(jù)并自主學習的程序。

在很多領(lǐng)域,機器人正在取代人類。這是因為編程使得機器人可以基于從傳感器收集的數(shù)據(jù)來執(zhí)行任務。他們從數(shù)據(jù)中學習并智能地運作。

機器學習中不同類型的算法技術(shù)如下:

強化學習

監(jiān)督學習

無監(jiān)督學習

半監(jiān)督學習

轉(zhuǎn)導

元學習

監(jiān)督學習是一個需要標記訓練集數(shù)據(jù)的過程,而無監(jiān)督學習則不需要數(shù)據(jù)標記。

無監(jiān)督學習包括如下:

數(shù)據(jù)聚類

數(shù)據(jù)的降維表示

探索數(shù)據(jù)

探索坐標和相關(guān)性

識別異常觀測

監(jiān)督學習包括如下:

分類

語音識別

回歸

預測時間序列

注釋字符串

樸素貝葉斯的優(yōu)點:

分類器比判別模型更快收斂

它可以忽略特征之間的相互作用

樸素貝葉斯的缺點是:

不適用連續(xù)性特征

它對數(shù)據(jù)分布做出了非常強的假設

在數(shù)據(jù)稀缺的情況下不能很好地工作

樸素貝葉斯是如此的不成熟,因為它假設數(shù)據(jù)集中所有特征同等重要且獨立。

過擬合:統(tǒng)計模型側(cè)重于隨機誤差或噪聲而不是探索關(guān)系,或模型過于復雜。

回答:

過擬合的一個重要原因和可能性是用于訓練模型的標準與用于判斷模型功效的標準不同。

避免過擬合方式:

大量數(shù)據(jù)

交叉驗證

五種常用的機器學習算法:

決策樹

概率網(wǎng)絡

最近鄰

支持向量機

神經(jīng)網(wǎng)絡

機器學習算法的應用案例:

欺詐檢測

人臉識別

自然語言處理

市場細分

文本分類

生物信息學

參數(shù)模型是指參數(shù)有限且用于預測新數(shù)據(jù)的模型,你只需知道模型的參數(shù)即可。

非參數(shù)模型是指參數(shù)數(shù)量無限的模型,允許更大的靈活性且用于預測新數(shù)據(jù),你需要了解模型的參數(shù)并熟悉已收集的觀測數(shù)據(jù)。

在機器學習中構(gòu)建假設或模型的三個階段是:

模型構(gòu)建

模型測試

模型應用

歸納邏輯編程(ILP):是機器學習的一個子領(lǐng)域,它使用代表背景知識和案例的邏輯程序。

分類和回歸之間的區(qū)別如下:

分類是關(guān)于識別類別的組成,而回歸涉及預測因變量。

這兩種技術(shù)都與預測相關(guān)。

分類預測類別的歸屬,而回歸預測來自連續(xù)集的值。

當模型需要返回數(shù)據(jù)集中的數(shù)據(jù)點的歸屬類別時,回歸不是首選。

歸納機器學習和演繹機器學習的區(qū)別:機器學習模型通過從一組觀察實例中學習,得出一個廣義結(jié)論;演繹學習要基于一些已知結(jié)論,得出結(jié)果。

決策樹的優(yōu)點是:

決策樹易于理解

非參數(shù)

調(diào)整的參數(shù)相對較少

機器學習領(lǐng)域?qū)W⒂谏钍艽竽X啟發(fā)的深度人工神經(jīng)網(wǎng)絡。Alexey Grigorevich Ivakhnenko將深度學習網(wǎng)絡帶入大眾視野。如今它已應用于各種領(lǐng)域,如計算機視覺、語音識別和自然語言處理。

有研究表明,淺網(wǎng)和深網(wǎng)都可以適應任何功能,但由于深度網(wǎng)絡有幾個不同類型的隱藏層,因此相比于參數(shù)更少的淺模型,它們能夠構(gòu)建或提取更好的特征。

代價函數(shù):神經(jīng)網(wǎng)絡對于給定訓練樣本和預期輸出的準確度的度量。它是一個值,而非向量,因為它支撐了整個神經(jīng)網(wǎng)絡的性能。它可以計算如下平均誤差函數(shù):

其中和期望值Y是我們想要最小化的。

梯度下降:一種基本的優(yōu)化算法,用于學習最小化代價函數(shù)的參數(shù)值。此外,它是一種迭代算法,它在最陡下降的方向上移動,由梯度的負值定義。我們計算給定參數(shù)的成本函數(shù)的梯度下降,并通過以下公式更新參數(shù):

其中是參數(shù)向量,α 是學習率,J()是成本函數(shù)。

反向傳播:一種用于多層神經(jīng)網(wǎng)絡的訓練算法。在此方法中,我們將誤差從網(wǎng)絡末端移動到網(wǎng)絡內(nèi)的所有權(quán)重,從而進行梯度的高效計算。它包括以下幾個步驟:

訓練的前向傳播以產(chǎn)生輸出。

然后可以使用目標值和輸出值誤差導數(shù)來計算輸出激活。

然后我們返回傳播以計算前一個輸出激活的誤差導數(shù),并對所有隱藏層繼續(xù)此操作。

使用之前計算的輸出和所有隱藏層的導數(shù),我們計算關(guān)于權(quán)重的誤差導數(shù)。

然后更新權(quán)重。

隨機梯度下降:我們僅使用單個訓練樣本來計算梯度和更新參數(shù)。

批量梯度下降:我們計算整個數(shù)據(jù)集的梯度,并在每次迭代時進行更新。

小批量梯度下降:它是最流行的優(yōu)化算法之一。它是隨機梯度下降的變體,但不是單個訓練示例,使用小批量樣本。

小批量梯度下降的好處

與隨機梯度下降相比,這更有效。

通過找到平面最小值來提高泛化性。

小批量有助于估計整個訓練集的梯度,這有助于我們避免局部最小值。

在反向傳播期間要使用數(shù)據(jù)標準化。數(shù)據(jù)規(guī)范化背后的主要動機是減少或消除數(shù)據(jù)冗余。在這里,我們重新調(diào)整值以適應特定范圍,以實現(xiàn)更好的收斂。

權(quán)重初始化:非常重要的步驟之一。糟糕的權(quán)重初始化可能會阻止網(wǎng)絡學習,但良好的權(quán)重初始化有助于更快的收斂和整體誤差優(yōu)化。偏差通??梢猿跏蓟癁榱?。設置權(quán)重的規(guī)則應接近于零,而不是太小。

自編碼:一種使用反向傳播原理的自主機器學習算法,其中目標值設置為等于所提供的輸入。在內(nèi)部有一個隱藏層,用于描述用于表示輸入的代碼。自編碼的一些重要特征:

它是一種類似于主成分分析(PCA)的無監(jiān)督機器學習算法

最小化與主成分分析相同的目標函數(shù)

它是一個神經(jīng)網(wǎng)絡

神經(jīng)網(wǎng)絡的目標輸出是其輸入

玻爾茲曼機(Boltzmann Machine):一種問題解決方案的優(yōu)化方法。玻爾茲曼機的工作基本是為了優(yōu)化給定問題的權(quán)重和數(shù)量。關(guān)于玻爾茲曼機的一些要點如下:

它使用循環(huán)結(jié)構(gòu)。

由隨機神經(jīng)元組成,其中包括兩種可能的狀態(tài)之一,1或0。

其中的神經(jīng)元處于連通狀態(tài)(自由狀態(tài))或斷開狀態(tài)(凍結(jié)狀態(tài))。

如果我們在離散Hopfield網(wǎng)絡上應用模擬退火,那么它將成為玻爾茲曼機。

激活函數(shù):一種將非線性引入神經(jīng)網(wǎng)絡的方法,它有助于學習更復雜的函數(shù)。沒有它,神經(jīng)網(wǎng)絡只能學習線性函數(shù)。線性函數(shù)是輸入數(shù)據(jù)的線性組合。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134580
  • 線性回歸
    +關(guān)注

    關(guān)注

    0

    文章

    41

    瀏覽量

    4440
  • 數(shù)據(jù)科學
    +關(guān)注

    關(guān)注

    0

    文章

    168

    瀏覽量

    10484

原文標題:面試官最愛用的統(tǒng)計學、數(shù)據(jù)科學、機器學習面試題答案

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    25個機器學習面試題,你都會嗎?

    `機器學習有非常多令人困惑及不解的地方,很多問題都沒有明確的答案。但在面試,如何探查到面試官想要提問的知識點就顯得非常重要了。在本文中,作
    發(fā)表于 09-29 09:39

    單片機面試常見問題及答案

    單片機面試常見問題及答案,單片機IO口開漏輸出和推挽輸出有什么區(qū)別?推挽輸出:既可以輸出低電平,也可以輸出高電平,可以直接驅(qū)動功耗不大的數(shù)字器件。導通損耗小、效率高、既提高電路的負載能力,又提高開關(guān)
    發(fā)表于 07-19 06:48

    關(guān)于stm32浮點數(shù)常見問題分享不看肯定后悔

    關(guān)于stm32浮點數(shù)常見問題分享不看肯定后悔
    發(fā)表于 10-21 08:08

    嵌入式面試常見問題匯總,絕對實用

    嵌入式面試常見問題(一)1、自我介紹。答:-------------------2、請問uboot啟動過程都做了些什么?答:1、cpu剛開始初始化的時候,還未設置棧,所以先使用匯編代碼,構(gòu)建異常項鏈
    發(fā)表于 12-24 08:26

    Microsoft.Net常見問題集錦(DotNet面試題匯

    Microsoft.Net常見問題集錦(DotNet面試題匯總) 一、 Microsoft.Net 平臺基礎 . 61、 GC是什么? 為什么要有GC? . 6二、 編程語言  61、 String和StringBuilder的區(qū)別?  62、
    發(fā)表于 06-09 14:22 ?36次下載

    Protel使用常見問題及解答

    Protel使用常見問題及解答,下來看看。
    發(fā)表于 01-16 16:36 ?0次下載

    機器學習應用常見問題分類問題你了解多少

    分類問題是機器學習應用常見問題,而二分類問題是其中的典型,例如垃圾郵件的識別。本文基于UCI機器學習
    的頭像 發(fā)表于 03-29 16:40 ?1.5w次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>應用<b class='flag-5'>中</b>的<b class='flag-5'>常見問題</b>分類問題你了解多少

    ic設計工程師面試常見問題_20個面試常見問題盤點

    設計經(jīng)驗,了解ARM體系結(jié)構(gòu),良好的數(shù)字信號處理、音視頻處理,圖像處理及有一定的VLSI基礎。本文主要介紹的是IC設計工程師咋面試中常遇到的問題盤點,具體的有20個跟隨小編來一起看看吧。
    的頭像 發(fā)表于 04-27 11:26 ?2.4w次閱讀

    電氣二次常見問題有哪些_40個電氣二次常見問題盤點

    本文主要介紹的是電氣二次常見問題,首先介紹了電氣二次原理圖,其次盤點了40個電氣二次常見問題,具體的跟隨小編一起來了解一下。
    發(fā)表于 05-31 16:51 ?5585次閱讀
    電氣二次<b class='flag-5'>常見問題</b>有哪些_40個電氣二次<b class='flag-5'>常見問題</b><b class='flag-5'>盤點</b>

    2018年數(shù)據(jù)科學機器學習工具調(diào)查

    近日,數(shù)據(jù)科學網(wǎng)站KDnuggets發(fā)布 2018年數(shù)據(jù)科學機器學習工具調(diào)查結(jié)果。
    的頭像 發(fā)表于 06-07 17:05 ?4616次閱讀
    2018年<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>科學</b>和<b class='flag-5'>機器</b><b class='flag-5'>學習</b>工具調(diào)查

    Airbnb機器學習數(shù)據(jù)科學團隊經(jīng)驗分享

    Airbnb資深機器學習科學家Shijing Yao、前Airbnb數(shù)據(jù)科學負責人Qiang Zhu、Airbnb
    的頭像 發(fā)表于 07-07 09:24 ?4159次閱讀

    常見機器學習面試問題及其相應的回答

    在監(jiān)督學習,機器在標記數(shù)據(jù)的幫助下進行訓練,即帶有正確答案標記的數(shù)據(jù)。而在無監(jiān)督機器
    的頭像 發(fā)表于 09-20 15:01 ?3420次閱讀

    目前機器學習面臨的常見問題和挑戰(zhàn)

    由于我們的主要任務是選擇一種學習算法,并對某些數(shù)據(jù)進行訓練,所以最可能出現(xiàn)的兩個問題不外乎是“壞算法”和“壞數(shù)據(jù)”,本文主要從壞數(shù)據(jù)出發(fā),帶大家了解目前
    的頭像 發(fā)表于 10-23 11:42 ?1.7w次閱讀
    目前<b class='flag-5'>機器</b><b class='flag-5'>學習</b>面臨的<b class='flag-5'>常見問題</b>和挑戰(zhàn)

    常見的MySQL高頻面試

    在各類技術(shù)崗位面試,似乎 MySQL 相關(guān)問題經(jīng)常被問到。無論你面試開發(fā)崗位或運維崗位,總會問幾道數(shù)據(jù)庫問題。經(jīng)常有小伙伴私信我,詢問如何應對 MySQL
    的頭像 發(fā)表于 02-08 16:05 ?2669次閱讀

    CAN總線常見問題解答

    CAN總線常見問題解答,面試中常問。
    的頭像 發(fā)表于 12-27 13:47 ?1865次閱讀
    CAN總線<b class='flag-5'>常見問題</b>解答