完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>
電子發(fā)燒友網(wǎng)技術文庫為您提供最新技術文章,最實用的電子技術文章,是您了解電子技術動態(tài)的最佳平臺。
憑借出色的性能和功耗指標,賽靈思 FPGA 成為設計人員構(gòu)建卷積神經(jīng)網(wǎng)絡的首選。新的軟件工具可簡化實現(xiàn)工作。人工智能正在經(jīng)歷一場變革,這要得益于機器學習的快速進步。在機器學習領域,人們正對一類名為“深度學習”算法產(chǎn)生濃厚的興趣,因為這類算法具有出色的大數(shù)據(jù)集性能。在深度學習中,機器可以在監(jiān)督或不受監(jiān)...
面對來自微軟、Facebook、谷歌和CMU的團隊時,中國面部識別初創(chuàng)企業(yè)Face++在3個計算機視覺挑戰(zhàn)中獲得了第一名。AAAI曾將2017年的年度會議推遲了一周,因為它發(fā)現(xiàn)大會日期與中國的新年相吻合,而且來自中國和美國的研究人員論文數(shù)量幾乎相等。...
在深度學習領域,我們也有一個新興的 N 體問題。許多更先進的系統(tǒng)現(xiàn)在正在處理多代理系統(tǒng)的問題。每個代理都可能有與全局目標合作或競爭的目標(即目標函數(shù))。在多代理深度學習系統(tǒng)中,甚至在模塊化的深度學習系統(tǒng)中,研究人員需要設計可擴展的合作方法。...
LTR同樣是一個回歸問題。你手頭上有一系列評價數(shù)據(jù),來衡量一個文檔與某個查詢的相關度等級。我們的相關度等級取值從A到F,更常見的情況是取值從0(完全不相關)到4(非常相關)。...
深度學習與傳統(tǒng)的機器學習最主要的區(qū)別在于隨著數(shù)據(jù)規(guī)模的增加其性能也不斷增長。當數(shù)據(jù)很少時,深度學習算法的性能并不好。這是因為深度學習算法需要大量的數(shù)據(jù)來完美地理解它。另一方面,在這種情況下,傳統(tǒng)的機器學習算法使用制定的規(guī)則,性能會比較好。...
由于語音分離已經(jīng)變成分類問題,所以語音分離也變得非常重要,已經(jīng)在信號處理領域被研究了幾十年,數(shù)據(jù)驅(qū)動的方法在語音處理領域也得到了廣泛研究。...
深度神經(jīng)網(wǎng)絡(DNN)在圖像識別和語音識別等領域不遜于人類,但是DNN模型的訓練需要專業(yè)人員方可進行,與SparkML的整合也十分不易。...
網(wǎng)絡釣魚是今天最常見的攻擊媒介,而且非常成功。這種攻擊利用了個人對通信工具的熟悉,如社交媒體和電子郵件,通過附件或鏈接向不知情的收件人發(fā)送惡意內(nèi)容。這種攻擊的有效性依賴于攻擊者誤導最終用戶點擊或下載惡意有效載荷并在之后繞過內(nèi)部控制的能力。目前其不斷增加的破壞性和勒索軟件有效載荷使得這種攻擊更加嚴重。...
使用集成學習者的基礎在于這樣一個想法,即在同一個數(shù)據(jù)樣本中學習幾個基本的對象,并使用不同對象的結(jié)果的聯(lián)合來預測后續(xù)更改的加密機制。這個方法的數(shù)學基礎就是十八世紀早期制定的陪審團審判定理。...
在人工神經(jīng)網(wǎng)絡(ANN)的監(jiān)督訓練中,智能體通過樣本進行學習 [56], [86]。智能體需要做出決策(已知正確答案),之后,使用誤差函數(shù)確定智能體提供的答案和真正答案之間的區(qū)別;這將作為損失用于更新模型。在大數(shù)據(jù)集上進行訓練后,智能體應該學習通用模型,使之在未見過的輸入上依然表現(xiàn)良好。...
算法對于內(nèi)存帶寬的需求通常使用「運算強度 (operational intensity,或稱 arithmetic intensity)」這個量來表示,單位是 OPs/byte。這個量的意思是,在算法中平均每讀入單位數(shù)據(jù),能支持多少次運算操作。運算強度越大,則表示單位數(shù)據(jù)能支持更多次運算,也就是說算...
深度神經(jīng)網(wǎng)絡里面門的權重也是 反向傳播訓練出來的,也有漸變的這個性質(zhì),當對于快速變化的刺激,有一定的滯后。從這個角度來說,人類神經(jīng)系統(tǒng)要更靈活一些,可以在很短的時間內(nèi)完成狀態(tài)的切換。...
未訓練的神經(jīng)網(wǎng)絡通常會輸出約在-1到1范圍之間的值。如果你希望輸出其他范圍的值(例如RBG圖像以0-255范圍的字節(jié)存儲)會出現(xiàn)一些問題。在開始訓練時,網(wǎng)絡會非常不穩(wěn)定,因為比如說預期值是255,網(wǎng)絡產(chǎn)生的值是-1或1——這會被大多數(shù)用于訓練神經(jīng)網(wǎng)絡的優(yōu)化算法認為是嚴重的錯誤。...
目前,Keras 官方版已經(jīng)支持谷歌的 TensorFlow、微軟的 CNTK、蒙特利爾大學的 Theano,此外,AWS 去年就宣布 Keras 將支持 Apache MXNet,上個月發(fā)布的 MXNet 0.11 就新增 Core ML 和 Keras v1.2 的支持。不過到目前為止 MXNe...
理解迭代,只需要知道乘法表或者一個計算器就可以了。迭代是 batch 需要完成一個 epoch 的次數(shù)。記?。涸谝粋€ epoch 中,batch 數(shù)和迭代數(shù)是相等...
要訓練神經(jīng)網(wǎng)絡,我們需要“訓練數(shù)據(jù)集”。訓練數(shù)據(jù)集是由對應目標z(期望輸出)的輸入信號(x_1和 x_2)組成。神經(jīng)網(wǎng)絡的訓練是一個迭代過程。在每個迭代中,使用來自訓練數(shù)據(jù)集的新數(shù)據(jù)修改網(wǎng)絡節(jié)點的加權系數(shù)。整個迭代由前向計算和反向傳播兩個過程組成。...
深度線性網(wǎng)絡通過反向傳播在 MNIST 數(shù)據(jù)集上訓練時,可獲取 94% 的訓練準確率和 92% 的測試準確率(機器之心使用三層全連接網(wǎng)絡可獲得 98.51% 的測試準確率)。相對而言,相同的線性網(wǎng)絡使用進化策略訓練可獲取大于 99% 的訓練準確率、96.7% 的測試準確率,確保激活值足夠小而分布在 ...
為什么要引入隨機森林呢。我們知道,同一批數(shù)據(jù),我們只能產(chǎn)生一顆決策樹,這個變化就比較單一了,這就有了集成學習的概念。...
在SMO算法中,我們每次需要選取一對α來進行優(yōu)化,通過啟發(fā)式的選取我們可以更高效的選取待優(yōu)化的變量使得目標函數(shù)下降的最快。...
異常值有時候很重要,有時候又可以忽略不計,視情況而定。以收入預測為例,有時候收入會突然出現(xiàn)很大的變動,觀察這種現(xiàn)象并了解其原因是很有幫助的。有時候異常值由某種誤差造成,那么這時可以放心地忽略它們,并將其從你的數(shù)據(jù)中刪除。...