一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

線性SVM分類器通過簡單地計算決策函數(shù)

lviY_AI_shequ ? 來源:未知 ? 作者:李倩 ? 2018-07-12 15:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

背后機制

這個章節(jié)從線性 SVM 分類器開始,將解釋 SVM 是如何做預(yù)測的并且算法是如何工作的。如果你是剛接觸機器學(xué)習(xí),你可以跳過這個章節(jié),直接進入本章末尾的練習(xí)。等到你想深入了解 SVM,再回頭研究這部分內(nèi)容。

首先,關(guān)于符號的約定:在第 4 章,我們將所有模型參數(shù)放在一個矢量θ里,包括偏置項θ0,θ1到θn的輸入特征權(quán)重,和增加一個偏差輸入x0 = 1到所有樣本。在本章中,我們將使用一個不同的符號約定,在處理 SVM 上,這更方便,也更常見:偏置項被命名為b,特征權(quán)重向量被稱為w,在輸入特征向量中不再添加偏置特征。

決策函數(shù)和預(yù)測

線性 SVM 分類器通過簡單地計算決策函數(shù)

來預(yù)測新樣本的類別:如果結(jié)果是正的,預(yù)測類別?是正類,為 1,否則他就是負(fù)類,為 0。見公式 5-2

圖 5-12 顯示了和圖 5-4 右邊圖模型相對應(yīng)的決策函數(shù):因為這個數(shù)據(jù)集有兩個特征(花瓣的寬度和花瓣的長度),所以是個二維的平面。決策邊界是決策函數(shù)等于 0 的點的集合,圖中兩個平面的交叉處,即一條直線(圖中的實線)

虛線表示的是那些決策函數(shù)等于 1 或 -1 的點:它們平行,且到?jīng)Q策邊界的距離相等,形成一個間隔。訓(xùn)練線性 SVM 分類器意味著找到w值和b值使得這一個間隔盡可能大,同時避免間隔違規(guī)(硬間隔)或限制它們(軟間隔)

訓(xùn)練目標(biāo)

看下決策函數(shù)的斜率:它等于權(quán)重向量的范數(shù)。如果我們把這個斜率除于 2,決策函數(shù)等于 ±1 的點將會離決策邊界原來的兩倍大。換句話,即斜率除于 2,那么間隔將增加兩倍。在圖 5-13 中,2D 形式比較容易可視化。權(quán)重向量w越小,間隔越大。

所以我們的目標(biāo)是最小化,從而獲得大的間隔。然而,如果我們想要避免間隔違規(guī)(硬間隔),對于正的訓(xùn)練樣本,我們需要決策函數(shù)大于 1,對于負(fù)訓(xùn)練樣本,小于 -1。若我們對負(fù)樣本(即)定義,對正樣本(即)定義,那么我們可以對所有的樣本表示為

因此,我們可以將硬間隔線性 SVM 分類器表示為公式 5-3 中的約束優(yōu)化問題

為了獲得軟間隔的目標(biāo),我們需要對每個樣本應(yīng)用一個松弛變量(slack variable) 表示了第i個樣本允許違規(guī)間隔的程度。我們現(xiàn)在有兩個不一致的目標(biāo):一個是使松弛變量盡可能的小,從而減小間隔違規(guī),另一個是使1/2 w·w盡量小,從而增大間隔。這時C超參數(shù)發(fā)揮作用:它允許我們在兩個目標(biāo)之間權(quán)衡。我們得到了公式 5-4 的約束優(yōu)化問題。

二次規(guī)劃

硬間隔和軟間隔都是線性約束的凸二次規(guī)劃優(yōu)化問題。這些問題被稱之為二次規(guī)劃(QP)問題?,F(xiàn)在有許多解決方案可以使用各種技術(shù)來處理 QP 問題,但這超出了本書的范圍。一般問題的公式在公式 5-5 給出。

對偶問題

給出一個約束優(yōu)化問題,即原始問題(primal problem),它可能表示不同但是和另一個問題緊密相連,稱為對偶問題(Dual Problem)。對偶問題的解通常是對原始問題的解給出一個下界約束,但在某些條件下,它們可以獲得相同解。幸運的是,SVM 問題恰好滿足這些條件,所以你可以選擇解決原始問題或者對偶問題,兩者將會有相同解。公式 5-6 表示了線性 SVM 的對偶形式(如果你對怎么從原始問題獲得對偶問題感興趣,可以看下附錄 C)

一旦你找到最小化公式的向量α(使用 QP 解決方案),你可以通過使用公式 5-7 的方法計算w和b,從而使原始問題最小化。

當(dāng)訓(xùn)練樣本的數(shù)量比特征數(shù)量小的時候,對偶問題比原始問題要快得多。更重要的是,它讓核技巧成為可能,而原始問題則不然。那么這個核技巧是怎么樣的呢?

核化支持向量機

假設(shè)你想把一個 2 次多項式變換應(yīng)用到二維空間的訓(xùn)練集(例如衛(wèi)星數(shù)據(jù)集),然后在變換后的訓(xùn)練集上訓(xùn)練一個線性SVM分類器。公式 5-8 顯示了你想應(yīng)用的 2 次多項式映射函數(shù)?。

注意到轉(zhuǎn)換后的向量是 3 維的而不是 2 維。如果我們應(yīng)用這個 2 次多項式映射,然后計算轉(zhuǎn)換后向量的點積(見公式 5-9),讓我們看下兩個 2 維向量a和b會發(fā)生什么。

轉(zhuǎn)換后向量的點積等于原始向量點積的平方:

Mercer 定理

根據(jù) Mercer 定理,如果函數(shù)K(a, b)滿足一些 Mercer 條件的數(shù)學(xué)條件(K函數(shù)在參數(shù)內(nèi)必須是連續(xù),對稱,即K(a, b)=K(b, a),等),那么存在函數(shù)?,將a和b映射到另一個空間(可能有更高的維度),有。所以你可以用K作為核函數(shù),即使你不知道?是什么。使用高斯核(Gaussian RBF kernel)情況下,它實際是將每個訓(xùn)練樣本映射到無限維空間,所以你不需要知道是怎么執(zhí)行映射的也是一件好事。

注意一些常用核函數(shù)(例如 Sigmoid 核函數(shù))并不滿足所有的 Mercer 條件,然而在實踐中通常表現(xiàn)得很好。

我們還有一個問題要解決。公式 5-7 展示了線性 SVM 分類器如何從對偶解到原始解,如果你應(yīng)用了核技巧那么得到的公式會包含。事實上,w必須和有同樣的維度,可能是巨大的維度或者無限的維度,所以你很難計算它。但怎么在不知道w的情況下做出預(yù)測?好消息是你可以將公式 5-7 的w代入到新的樣本的決策函數(shù)中,你會得到一個在輸入向量之間只有點積的方程式。這時,核技巧將派上用場,見公式 5-11

注意到支持向量才滿足α(i)≠0,做出預(yù)測只涉及計算為支持向量部分的輸入樣本的點積,而不是全部的訓(xùn)練樣本。當(dāng)然,你同樣也需要使用同樣的技巧來計算偏置項b,見公式 5-12

如果你開始感到頭痛,這很正常:因為這是核技巧一個不幸的副作用

在線支持向量機

在結(jié)束這一章之前,我們快速地了解一下在線 SVM 分類器(回想一下,在線學(xué)習(xí)意味著增量地學(xué)習(xí),不斷有新實例)。對于線性SVM分類器,一種方式是使用梯度下降(例如使用SGDClassifire)最小化代價函數(shù),如從原始問題推導(dǎo)出的公式 5-13。不幸的是,它比基于 QP 方式收斂慢得多。

代價函數(shù)第一個和會使模型有一個小的權(quán)重向量w,從而獲得一個更大的間隔。第二個和計算所有間隔違規(guī)的總數(shù)。如果樣本位于“街道”上和正確的一邊,或它與“街道”正確一邊的距離成比例,則間隔違規(guī)等于 0。最小化保證了模型的間隔違規(guī)盡可能小并且少。

Hinge 損失

函數(shù)max(0, 1–t)被稱為 Hinge 損失函數(shù)(如下)。當(dāng)t≥1時,Hinge 值為 0。如果t<1,它的導(dǎo)數(shù)(斜率)為 -1,若t>1,則等于0。在t=1處,它是不可微的,但就像套索回歸(Lasso Regression)(參見 130 頁套索回歸)一樣,你仍然可以在t=0時使用梯度下降法(即 -1 到 0 之間任何值)

我們也可以實現(xiàn)在線核化的 SVM。例如使用“增量和遞減 SVM 學(xué)習(xí)”或者“在線和主動的快速核分類器”。但是,這些都是用 MatlabC++ 實現(xiàn)的。對于大規(guī)模的非線性問題,你可能需要考慮使用神經(jīng)網(wǎng)絡(luò)(見第二部分)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13442
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8500

    瀏覽量

    134505
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25407
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【Firefly RK3399試用體驗】之結(jié)項——KNN、SVM分類在SKlearn機器學(xué)習(xí)工具集中運用

    ,分別標(biāo)記為粉紅、藍色和綠色,然后把訓(xùn)練數(shù)據(jù)及分類傳入KNN分類來訓(xùn)練KNN分類,最后就可以將測試數(shù)據(jù)輸入KNN
    發(fā)表于 07-20 22:26

    線性分類

    分值的映射。線性分類:在本模型中,我們從最簡單的概率函數(shù)開始,一個線性映射:在上面的公式中,假
    發(fā)表于 10-09 09:40

    數(shù)據(jù)SVM分類的構(gòu)建

    16SVM - 代碼案例三 - 不同SVM函數(shù)效果比較
    發(fā)表于 05-22 16:04

    SVM→2決策函數(shù)的引出是什么

    SVM→2決策函數(shù)的引出
    發(fā)表于 06-15 12:02

    介紹支持向量機與決策樹集成等模型的應(yīng)用

    本文主要介紹支持向量機、k近鄰、樸素貝葉斯分類 、決策樹、決策樹集成等模型的應(yīng)用。講解了支持向量機SVM線性與非
    發(fā)表于 09-01 06:57

    SVM的相關(guān)資料分享

    Jupyter中重新做一遍。并將例子代碼中采用多項式分類函數(shù)、高斯核函數(shù)對鳶尾花、月亮數(shù)據(jù)集進行SVM訓(xùn)練所得到最終分類
    發(fā)表于 01-13 08:00

    目標(biāo)識別中SVM線性可分性研究

    該文主要研究了目標(biāo)識別中SVM 線性可分的充要條件以及線性不可分時軟間隔分類的內(nèi)涵。首先給出了SVM 特征空間
    發(fā)表于 11-21 11:49 ?9次下載

    基于四叉樹的分形圖像編碼中的剖分決策函數(shù)

    基于四叉樹的分形圖像編碼中的剖分決策函數(shù) 為了得到可變的位率,在分形圖像壓縮中經(jīng)常采用四叉樹分割方法。該文提出了一種基于模糊積分的剖分決策函數(shù)——
    發(fā)表于 02-22 14:20 ?18次下載

    采用SVM的網(wǎng)頁分類方法研究

    支持向量機SVM一種可訓(xùn)練的機器學(xué)習(xí)方法,它對小樣本進行學(xué)習(xí),得到一個分類函數(shù),冉將待測文本代入此分類函數(shù)中判定文本所屬的類別。
    發(fā)表于 11-08 11:42 ?3次下載

    支持向量機(SVM)的定義、分類及工作流程圖詳解

    SVM可以做線性分類、非線性分類、線性回歸等,相比邏輯回歸、
    的頭像 發(fā)表于 11-30 10:59 ?8.5w次閱讀
    支持向量機(<b class='flag-5'>SVM</b>)的定義、<b class='flag-5'>分類</b>及工作流程圖詳解

    基于信息濃縮的隱私保護分類方法

    支持向量機(SVM)的分類決策過程涉及到對原始訓(xùn)練樣本的學(xué)習(xí),容易導(dǎo)致數(shù)據(jù)中隱私信息的泄漏。為解決上述問題,提出一種基于信息濃縮的隱私保護分類方法IC-
    發(fā)表于 12-23 11:12 ?0次下載
    基于信息濃縮的隱私保護<b class='flag-5'>分類</b>方法

    基于SVM和模糊K均值算法的部位外觀模型

    基于SVM和模糊K均值算法的部位外觀模型。部位外觀模型由兩個分類構(gòu)成,線性SVM分類器用于判斷
    發(fā)表于 01-08 15:13 ?0次下載

    SVM分類實驗的資料和工程文件資料免費下載

    一、實驗?zāi)康?1、掌握線性主持向量機(SVM分類。 2、掌握基于高斯核的SVM分類
    發(fā)表于 06-17 08:00 ?0次下載

    可檢測網(wǎng)絡(luò)入侵的IL-SVM-KNN分類

    為滿足入侵檢測的實時性和準(zhǔn)確性要求,通過結(jié)合支持向量機(SVM)和K最近鄰(KNN)算法設(shè)ⅡL-SM-KNN分類,并采用平衡k維樹作為數(shù)據(jù)結(jié)構(gòu)提升執(zhí)行速度。訓(xùn)練階段應(yīng)用增量學(xué)習(xí)思想并
    發(fā)表于 04-29 15:55 ?7次下載
    可檢測網(wǎng)絡(luò)入侵的IL-<b class='flag-5'>SVM</b>-KNN<b class='flag-5'>分類</b><b class='flag-5'>器</b>

    基于SVM分類檢測的公路車輛智能跟蹤技術(shù)

    基于SVM分類檢測的公路車輛智能跟蹤技術(shù)
    發(fā)表于 06-22 15:58 ?18次下載