一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

淺析SVM多核學(xué)習(xí)方法

汽車玩家 ? 來源:人工智能遇見磐創(chuàng) ? 作者:Walker ? 2020-05-04 18:16 ? 次閱讀

SVM是機(jī)器學(xué)習(xí)有監(jiān)督學(xué)習(xí)的一種方法,常用于解決分類問題,其基本原理是:在特征空間里尋找一個超平面,以最小的錯分率把正負(fù)樣本分開。因?yàn)镾VM既能達(dá)到工業(yè)界的要求,機(jī)器學(xué)習(xí)研究者又能知道其背后的原理,所以SVM有著舉足輕重的地位。

但是我們之前接觸過的SVM都是單核的,即它是基于單個特征空間的。在實(shí)際應(yīng)用中往往需要根據(jù)我們的經(jīng)驗(yàn)來選擇不同的核函數(shù)(如:高斯核函數(shù)、多項(xiàng)式核函數(shù)等)、指定不同的參數(shù),這樣不僅不方便而且當(dāng)數(shù)據(jù)集的特征是異構(gòu)時,效果也沒有那么好。正是基于SVM單核學(xué)習(xí)存在的上述問題,同時利用多個核函數(shù)進(jìn)行映射的多核學(xué)習(xí)模型(MKL)應(yīng)用而生。

多核模型比單個核函數(shù)具有更高的靈活性。在多核映射的背景下,高維空間成為由多個特征空間組合而成的組合空間。由于組合空間充分發(fā)揮了各個基本核的不同特征映射能力,能夠?qū)悩?gòu)數(shù)據(jù)的不同特征分量分別通過相應(yīng)的核函數(shù)得到解決。目前主流的多核學(xué)習(xí)方法主要包括合成核方法、多尺度核方法和無限核方法。其具體流程如圖1所示:

淺析SVM多核學(xué)習(xí)方法

圖1 多核學(xué)習(xí)流程圖

接下來我們以二分類問題為例,為大家簡單介紹多核學(xué)習(xí)方法。令訓(xùn)練數(shù)據(jù)集為X={(x1,y1),(x2,y2),(x3,y3)...(xn,yn)},其中Xi是輸入特征,且Xi∈Rd,i= 1,2, ..., N,Yi∈{+1, ?1}是類標(biāo)簽。SVM 算法目標(biāo)在于最大化間隔,其模型的原始問題可以表示為:

淺析SVM多核學(xué)習(xí)方法

其中,w是待求的權(quán)重向量,ζi與C分別是松弛變量和懲罰系數(shù)。根據(jù)拉格朗日對偶性以及 KKT 條件,引入核函數(shù)K( Xi , Xj): Rn×Rn → R,原始問題也可以轉(zhuǎn)換成如下最優(yōu)化的形式:

淺析SVM多核學(xué)習(xí)方法

其中,ai與aj為拉格朗日乘子,核函數(shù)K( Xi, Xj)=φ(xi) xφ(xj)。核方法的思想就是,在學(xué)習(xí)與預(yù)測中不顯示地定義映射函數(shù)φ(xi) ,只定義核函數(shù)K( Xi, Xj),直接在原低維空間中計(jì)算高維空間中的向量內(nèi)積,既實(shí)現(xiàn)低維樣本空間到高維特征空間的映射,又不增加計(jì)算復(fù)雜量。

多核學(xué)習(xí)方法是單核 SVM 的拓展,其目標(biāo)是確定 M 個個核函數(shù)的最優(yōu)組合,使得間距最大,可以用如下優(yōu)化問題表示:

淺析SVM多核學(xué)習(xí)方法

其中?= {θ∈ ?+|θTeM=1},表示 M 個核函數(shù)的凸組合的系數(shù),eM是一個向量,M個元素全是 1,K(θ)=∑Mj=1θjkj(?,?)代表最終的核函數(shù),其中kj(?,?)是第j個核函數(shù)。與單核 SVM 一樣,可以將上式如下轉(zhuǎn)化:

淺析SVM多核學(xué)習(xí)方法

其中Kj∈ RNxN,Ω={a|a∈[0,C]N},“?”被定義為向量的點(diǎn)積,即(1,0)?(2,3) = (1 ×2 ,0×3)=(2,0)。通過對比 MKL 與單核 SVM 所對應(yīng)的優(yōu)化問題形式,求解多核學(xué)習(xí)問題的計(jì)算復(fù)雜度與難度會遠(yuǎn)大于單核 SVM,所以研究出一種高效且穩(wěn)定的算法來解決傳統(tǒng)多核學(xué)習(xí)中的優(yōu)化難題,仍然很具有挑戰(zhàn)性。

綜上所示,盡管多核學(xué)習(xí)在解決一些異構(gòu)數(shù)據(jù)集問題上表現(xiàn)出了非常優(yōu)秀的性能,但不得不說效率是多核學(xué)習(xí)發(fā)展的最大瓶頸。首先,空間方面,多核學(xué)習(xí)算法由于需要計(jì)算各個核矩陣對應(yīng)的核組合系數(shù),需要多個核矩陣共同參加運(yùn)算。也就是說,多個核矩陣需要同時存儲在內(nèi)存中,如果樣本的個數(shù)過多,那么核矩陣的維數(shù)也會非常大,如果核的個數(shù)也很多,這無疑會占用很大的內(nèi)存空間。其次,時間方面,傳統(tǒng)的求解核組合參數(shù)的方法即是轉(zhuǎn)化為SDP優(yōu)化問題求解,而求解SDP問題需要使用內(nèi)點(diǎn)法,非常耗費(fèi)時間,盡管后續(xù)的一些改進(jìn)算法能在耗費(fèi)的時間上有所減少,但依然不能有效的降低時間復(fù)雜度。高耗的時間和空間復(fù)雜度是導(dǎo)致多核學(xué)習(xí)算法不能廣泛應(yīng)用的一個重要原因。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • SVM
    SVM
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    32899
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8481

    瀏覽量

    133866
收藏 人收藏

    評論

    相關(guān)推薦

    18個常用的強(qiáng)化學(xué)習(xí)算法整理:從基礎(chǔ)方法到高級模型的理論技術(shù)與代碼實(shí)現(xiàn)

    本來轉(zhuǎn)自:DeepHubIMBA本文系統(tǒng)講解從基本強(qiáng)化學(xué)習(xí)方法到高級技術(shù)(如PPO、A3C、PlaNet等)的實(shí)現(xiàn)原理與編碼過程,旨在通過理論結(jié)合代碼的方式,構(gòu)建對強(qiáng)化學(xué)習(xí)算法的全面理解。為確保內(nèi)容
    的頭像 發(fā)表于 04-23 13:22 ?167次閱讀
    18個常用的強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>算法整理:從基礎(chǔ)<b class='flag-5'>方法</b>到高級模型的理論技術(shù)與代碼實(shí)現(xiàn)

    一種無刷直流電機(jī)霍耳信號與定子繞組關(guān)系自學(xué)習(xí)方法

    的關(guān)系。提出了一種無刷直流電機(jī)霍耳信號與定子繞組關(guān)系自學(xué)習(xí)方法,該方法通過不同的繞組通電組合將電機(jī)轉(zhuǎn)子依次轉(zhuǎn)到6個不同的位置并記錄對應(yīng)的霍耳信號,然后得出霍耳信號與定子繞組的對應(yīng)關(guān)系。所提出的方法快速
    發(fā)表于 03-25 15:15

    DeepSeek與Kimi揭示o1秘密,思維鏈學(xué)習(xí)方法顯成效

    據(jù)消息,OpenAI近日發(fā)布了一項(xiàng)重要研究報(bào)告。報(bào)告指出,DeepSeek和Kimi兩家機(jī)構(gòu)通過獨(dú)立研究,成功利用思維鏈學(xué)習(xí)方法,在數(shù)學(xué)解題與編程挑戰(zhàn)中顯著提升了模型的綜合表現(xiàn)。 Kimi的研究員
    的頭像 發(fā)表于 02-18 15:13 ?342次閱讀

    如何快速學(xué)習(xí)硬件電路

    對于想要學(xué)習(xí)硬件電路的新手來說,一開始可能感到有些困難,但只要掌握了正確的學(xué)習(xí)方法和技巧,就能夠快速地成為一名優(yōu)秀的硬件電路工程師。 首先,新手需要了解基本的電路知識,例如電阻、電容、電感等。這些
    的頭像 發(fā)表于 01-20 11:11 ?716次閱讀
    如何快速<b class='flag-5'>學(xué)習(xí)</b>硬件電路

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比,傳統(tǒng)方法在給定問題上的開發(fā)和測試速度更快。
    的頭像 發(fā)表于 12-30 09:16 ?894次閱讀
    傳統(tǒng)機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機(jī)器學(xué)習(xí)”最初的研究動機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆]有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的機(jī)器學(xué)習(xí)的定義是“利用經(jīng)
    的頭像 發(fā)表于 11-16 01:07 ?742次閱讀
    什么是機(jī)器<b class='flag-5'>學(xué)習(xí)</b>?通過機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>能解決哪些問題?

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是一種機(jī)器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機(jī)器學(xué)習(xí)庫,
    的頭像 發(fā)表于 11-05 17:34 ?767次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?495次閱讀
    Pytorch深度<b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的<b class='flag-5'>方法</b>

    《DNK210使用指南 -CanMV版 V1.0》第一章本書學(xué)習(xí)方法

    第一章 本書學(xué)習(xí)方法 為了讓讀者更好地學(xué)習(xí)和使用本書,本章將為讀者介紹本書的學(xué)習(xí)方法,包括:本書的學(xué)習(xí)順序、編寫規(guī)范、代碼規(guī)范、資料查找和學(xué)習(xí)
    發(fā)表于 08-28 17:57

    深度學(xué)習(xí)中的時間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強(qiáng)大的自動特征提取和分類能力。本文將從多個角度對深度學(xué)習(xí)在時間序列分類中的應(yīng)用進(jìn)行綜述,探討常用的深度學(xué)習(xí)模型及其改進(jìn)
    的頭像 發(fā)表于 07-09 15:54 ?1740次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對抗網(wǎng)絡(luò)、聚類算法等,并分析它們的原理、應(yīng)用場景以及優(yōu)
    的頭像 發(fā)表于 07-09 10:50 ?1371次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度學(xué)習(xí)簡介 深度學(xué)習(xí)是一種基于人工神經(jīng)網(wǎng)絡(luò)的
    的頭像 發(fā)表于 07-05 09:47 ?1395次閱讀

    深度學(xué)習(xí)的基本原理與核心算法

    隨著大數(shù)據(jù)時代的到來,傳統(tǒng)機(jī)器學(xué)習(xí)方法在處理復(fù)雜模式上的局限性日益凸顯。深度學(xué)習(xí)(Deep Learning)作為一種新興的人工智能技術(shù),以其強(qiáng)大的非線性表達(dá)能力和自學(xué)習(xí)能力,在圖像識別、自然語言
    的頭像 發(fā)表于 07-04 11:44 ?3205次閱讀

    機(jī)器學(xué)習(xí)算法原理詳解

    機(jī)器學(xué)習(xí)作為人工智能的一個重要分支,其目標(biāo)是通過讓計(jì)算機(jī)自動從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)其性能,而無需進(jìn)行明確的編程。本文將深入解讀幾種常見的機(jī)器學(xué)習(xí)算法原理,包括線性回歸、邏輯回歸、支持向量機(jī)(SVM
    的頭像 發(fā)表于 07-02 11:25 ?2005次閱讀

    TC3x多核使用與TC2x多核使用相比是否有任何限制?

    大家好,TC3x 多核使用與 TC2x 多核使用相比是否有任何限制? 舉例說明:TC3x 是否不允許在不同內(nèi)核運(yùn)行的代碼之間進(jìn)行多內(nèi)核共享數(shù)據(jù)交換?
    發(fā)表于 05-22 07:32