一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

讀懂NeurIPS2019最佳機(jī)器學(xué)習(xí)論文

倩倩 ? 來源:讀芯術(shù) ? 2020-01-16 09:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

NeurIPS是全球頂級(jí)的機(jī)器學(xué)習(xí)會(huì)議。沒有其他研究會(huì)議可以吸引6000多位該領(lǐng)域內(nèi)真正的精英同時(shí)參加。如果你非常想了解機(jī)器學(xué)習(xí)最新的研究進(jìn)展,就需要關(guān)注NeurIPS。

每年,NeurIPS都會(huì)為機(jī)器學(xué)習(xí)領(lǐng)域的頂級(jí)研究論文頒發(fā)各類獎(jiǎng)項(xiàng)。考慮到這些論文的前沿水平,它們對(duì)于大多數(shù)人來說通常晦澀難懂。

但是不用擔(dān)心!我瀏覽了這些優(yōu)秀論文,并在本文總結(jié)了要點(diǎn)!我的目的是通過將關(guān)鍵的機(jī)器學(xué)習(xí)概念分解為大眾易于理解的小點(diǎn)來幫助你了解每篇論文的本質(zhì)。

以下是我將介紹的三個(gè)NeurIPS2019最佳論文的獎(jiǎng)項(xiàng):

最佳論文獎(jiǎng)

杰出新方向論文獎(jiǎng)

經(jīng)典論文獎(jiǎng)

讓我們深入了解吧!

NeurIPS 2019最佳論文獎(jiǎng)

在NeurIPS 2019上獲得的最佳論文獎(jiǎng)是:

具有Massart噪聲的半空間的獨(dú)立分布的PAC學(xué)習(xí)(Distribution-Independent PAC Learning of Halfspaces with MassartNoise)

這是一篇非常好的論文!這讓我開始思考機(jī)器學(xué)習(xí)中的一個(gè)基本概念:噪聲和分布。這需要對(duì)論文本身進(jìn)行大量研究,我將盡力解釋論文的要點(diǎn)而不使其變得復(fù)雜。

我們先重述標(biāo)題。本文的研究討論了一種用于學(xué)習(xí)半空間的算法,該算法在與分布無關(guān)的PAC模型中使用,且研究的半空間具有Massart噪聲。該算法是該領(lǐng)域中最有效的算法。

本文的關(guān)鍵術(shù)語如下。

回顧布爾函數(shù)和二進(jìn)制分類的概念。本質(zhì)上,

一個(gè)半空間是一個(gè)布爾函數(shù),其中兩個(gè)類(正樣本和負(fù)樣本)由一個(gè)超平面分開。由于超平面是線性的,因此它也被稱為線性閾值函數(shù)(LTF)。

在數(shù)學(xué)上,線性閾值函數(shù)或半空間是一個(gè)閾值函數(shù),可以由以某個(gè)閾值T為邊界的輸入?yún)?shù)的線性方程表示。布爾函數(shù)如果具有以下形式,則為線性閾值函數(shù):

其中:

是權(quán)重

是特征

表示給出實(shí)數(shù)符號(hào)的符號(hào)函數(shù)

是閾值

我們也可以將LTF稱為感知器(此處需要使用神經(jīng)網(wǎng)絡(luò)知識(shí)?。?/p>

PAC(Probably Approximately Correct)模型是二分類的標(biāo)準(zhǔn)模型之一。

“Massart噪聲條件,或僅僅是Massart噪聲,是每個(gè)樣本/記錄的標(biāo)簽以學(xué)習(xí)算法未知的很小概率進(jìn)行的翻轉(zhuǎn)?!?/p>

翻轉(zhuǎn)的可能性受某個(gè)始終小于1/2的因子n的限制。為了找到使得誤分類錯(cuò)誤較小的假設(shè),我們?cè)谙惹暗恼撐闹羞M(jìn)行了各種嘗試來限制錯(cuò)誤以及與數(shù)據(jù)噪聲相關(guān)的風(fēng)險(xiǎn)。

這項(xiàng)研究在確定樣本復(fù)雜性的同時(shí),證明了多項(xiàng)式時(shí)間(1/epsilon)的額外風(fēng)險(xiǎn)等于Massart噪聲水平加上epsilon。

本文是邁向僅實(shí)現(xiàn)ε過量風(fēng)險(xiǎn)這一目標(biāo)的巨大飛躍。

獲得NeurIPS杰出論文獎(jiǎng)提名的其他論文:

1. Besov IPM損耗下GAN的非參數(shù)密度估計(jì)和收斂速度(Nonparametric Density Estimation & Convergence Rates for GANs under Besov IPM Losses)

2. 快速準(zhǔn)確的最小均方求解(Fast andAccurate Least-Mean-Squares Solvers)

NeurIPS 2019杰出新方向論文

今年的NeurIPS2019為獲獎(jiǎng)?wù)撐脑O(shè)置了一個(gè)新獎(jiǎng)項(xiàng)杰出新方向論文獎(jiǎng)。用主辦方的話來說: “該獎(jiǎng)項(xiàng)旨在表彰為未來研究建立新途徑的杰出工作?!?/p>

該獎(jiǎng)項(xiàng)的獲獎(jiǎng)文章是 ——《一致收斂性可能無法解釋深度學(xué)習(xí)中的泛化性》(Uniform convergence may be unable to explain generalization in deeplearning)

今年我最喜歡的論文之一!本文從理論和實(shí)踐兩個(gè)方面闡述了當(dāng)前的深度學(xué)習(xí)算法無法解釋深度神經(jīng)網(wǎng)絡(luò)中的泛化。讓我們來更詳細(xì)地了解這一點(diǎn)。

一致收斂性可能無法解釋深度學(xué)習(xí)中的泛化性(Uniform convergence may be unable to explain generalization in deeplearning)

大型網(wǎng)絡(luò)很好地概括了看不見的訓(xùn)練數(shù)據(jù),盡管這些數(shù)據(jù)已被訓(xùn)練為完全適合隨機(jī)標(biāo)記。但是,當(dāng)特征數(shù)量大于訓(xùn)練樣本的數(shù)量時(shí),這些網(wǎng)絡(luò)的表現(xiàn)就沒那么好了。

盡管如此,它們?nèi)匀粸槲覀兲峁┝俗钚碌男阅苤笜?biāo)。這也表明這些超參數(shù)化模型過度地依賴參數(shù)計(jì)數(shù)而沒有考慮批量大小的變化。如果我們遵循泛化的基本方程:

測(cè)試誤差 – 訓(xùn)練誤差 《= 泛化界限

對(duì)于上面的方程式,我們采用所有假設(shè)的集合,并嘗試最小化復(fù)雜度并使這些界限盡可能地窄。

迄今為止的研究都集中于通過獲取假設(shè)類別的相關(guān)子集來收緊界限。在完善這些約束方面也有很多開創(chuàng)性的研究,所有這些都基于統(tǒng)一收斂的概念。

但是,本文解釋這些算法可能出現(xiàn)的兩種情況:

太大,并且其復(fù)雜度隨參數(shù)數(shù)量而增加;

很小,但是在修改后的網(wǎng)絡(luò)上設(shè)計(jì)而來

“該論文定義了一組用于泛化界限的標(biāo)準(zhǔn),并通過一組演示實(shí)驗(yàn)證明統(tǒng)一收斂為何無法完全解釋深度學(xué)習(xí)中的泛化?!?/p>

泛化界限如下:

1. 理想情況下必須 《1(空)

2. 隨著寬度的增加變小

3. 適用于由SGD(隨機(jī)梯度下降)學(xué)習(xí)的網(wǎng)絡(luò)

4. 隨著隨機(jī)翻轉(zhuǎn)的訓(xùn)練標(biāo)簽的比例而增加

5. 應(yīng)該與數(shù)據(jù)集大小成反比

之前提到的實(shí)驗(yàn)是在MNIST數(shù)據(jù)集上使用三種類型的過度參數(shù)化模型(均在SGD算法上進(jìn)行訓(xùn)練)完成的:

1. 線性分類器

2. 具有ReLU的寬神經(jīng)網(wǎng)絡(luò)

3. 具有固定隱藏權(quán)重的無限寬度神經(jīng)網(wǎng)絡(luò)

本文繼而演示了針對(duì)不同訓(xùn)練集大小的不同超參數(shù)設(shè)置。

“一個(gè)非常有趣的發(fā)現(xiàn)是,盡管測(cè)試集誤差隨訓(xùn)練集大小的增加而減小,但泛化界限實(shí)際上卻有所增加。 ”

如果網(wǎng)絡(luò)只是記住了我們不斷添加到訓(xùn)練集中的數(shù)據(jù)點(diǎn),該怎么辦?

以研究人員給出的例子為例。對(duì)于一個(gè)擁有1000個(gè)維度的數(shù)據(jù)集的分類任務(wù),使用SGD訓(xùn)練具有1個(gè)隱藏層ReLU和10萬個(gè)單位的超參數(shù)化模型。訓(xùn)練集大小的增加可提高泛化性并減少測(cè)試集錯(cuò)誤。

盡管進(jìn)行了泛化,它們?nèi)匀蛔C明了決策邊界非常復(fù)雜。這是它們違背統(tǒng)一收斂思想的地方。

因此,即使對(duì)于線性分類器,統(tǒng)一收斂也不能完全解釋泛化。實(shí)際上,當(dāng)增加樣本數(shù)量時(shí),這可以認(rèn)為是導(dǎo)致界限增加的一個(gè)因素!

盡管先前的研究已將發(fā)展深度網(wǎng)絡(luò)的方向朝著依賴于算法的方向發(fā)展(以便堅(jiān)持一致收斂),但本文提出了開發(fā)不依賴于算法的技術(shù)的需求,這些技術(shù)不會(huì)局限于一致收斂來解釋泛化。

我們可以清楚地知道,為什么該機(jī)器學(xué)習(xí)研究論文在NeurIPS 2019上獲得了杰出新方向論文獎(jiǎng)。

研究人員已經(jīng)表明,僅僅用一致收斂不足以解釋深度學(xué)習(xí)中的泛化。同樣,不可能達(dá)到滿足所有5個(gè)標(biāo)準(zhǔn)的小界限。這開辟了一個(gè)全新的研究領(lǐng)域來探索可能解釋泛化的其他工具。

NeurIPS在杰出新方向論文獎(jiǎng)上的其他提名包括:

1. 端到端:表征的梯度隔離學(xué)習(xí)(Putting AnEnd to End-to-End: Gradient-Isolated Learning of Representations)

2. 場(chǎng)景表示網(wǎng)絡(luò):連續(xù)的3D-結(jié)構(gòu)感知神經(jīng)場(chǎng)景表示(SceneRepresentation Networks: Continuous 3D-Structure-Aware Neural SceneRepresentations)

NeurIPS 2019的經(jīng)典論文獎(jiǎng)

每年,NeurIPS還會(huì)獎(jiǎng)勵(lì)10年前在大會(huì)上發(fā)表的一篇論文,該論文對(duì)該領(lǐng)域的貢獻(xiàn)產(chǎn)生了深遠(yuǎn)的影響(也是廣受歡迎的論文)。

今年,“經(jīng)典論文獎(jiǎng)”授予了LinXiao寫作的“正則隨機(jī)學(xué)習(xí)和在線優(yōu)化的雙重平均法”。這項(xiàng)研究基于基本概念,這些基本概念為眾所周知的現(xiàn)代機(jī)器學(xué)習(xí)奠定了基礎(chǔ)。

正則隨機(jī)學(xué)習(xí)和在線優(yōu)化的雙重平均法(Dual Averaging Method for Regularized Stochastic Learning and OnlineOptimization)

讓我們分解一下這篇極佳的論文中涵蓋的四個(gè)關(guān)鍵概念:

隨機(jī)梯度下降:隨機(jī)梯度下降已經(jīng)正式成為機(jī)器學(xué)習(xí)中的最優(yōu)化方法。它可以通過以下隨機(jī)優(yōu)化來實(shí)現(xiàn)。回顧SGD和大樣本隨機(jī)優(yōu)化方程——這里,w是權(quán)重向量,z是輸入特征向量。對(duì)于t = 0,1,2…

在線凸優(yōu)化:另一項(xiàng)開創(chuàng)性的研究。它被模擬為游戲,玩家將嘗試預(yù)測(cè)權(quán)重向量,并在每個(gè)t處計(jì)算出最終的損失。主要目的是最大程度地減少這種損失——結(jié)果與我們使用隨機(jī)梯度下降進(jìn)行優(yōu)化的方式非常相似

壓縮學(xué)習(xí):這包括套索回歸,L1正則化最小二乘和其他混合正則化方案

近端梯度法:與早期的技術(shù)相比,這是一種減少損耗且仍保留凸度的更快的方法

盡管先前的研究開發(fā)了一種收斂到O(1/t)的有效算法,但數(shù)據(jù)稀疏性是在那之前一直被忽略的一個(gè)因素。本文提出了一種新的正則化技術(shù),稱為正則化雙重平均法(RDA),用于解決在線凸優(yōu)化問題。

當(dāng)時(shí),這些凸優(yōu)化問題效率不高,特別是在可伸縮性方面。

這項(xiàng)研究提出了一種批處理優(yōu)化的新方法。這意味著最初僅提供一些獨(dú)立樣本,并且基于這些樣本(在當(dāng)前時(shí)間t)計(jì)算權(quán)重向量。相對(duì)于當(dāng)前權(quán)重向量的損失與次梯度一起計(jì)算。并在迭代中(在時(shí)間t + 1)再次使用它。

具體而言,在RDA中,考慮了平均次梯度,而不是當(dāng)前的次梯度。

“當(dāng)時(shí),對(duì)于稀疏的MNIST數(shù)據(jù)集,此方法比SGD和其他流行技術(shù)獲得了更好的結(jié)果。實(shí)際上,隨著稀疏度的增加,RDA方法也具有明顯更好的結(jié)果?!?/p>

在進(jìn)一步研究上述方法的多篇論文中,如流形識(shí)別、加速RDA等,都證明了這篇論文被授予經(jīng)典論文獎(jiǎng)是當(dāng)之無愧。

結(jié)語

NeurIPS 2019再次成為了一次極富教育意義和啟發(fā)性的會(huì)議。我對(duì)杰出新方向論文獎(jiǎng)以及它如何解決深度學(xué)習(xí)中的泛化問題特別感興趣。

哪一篇機(jī)器學(xué)習(xí)研究論文引起了你的注意?或者是否有其他的論文,讓你想要去嘗試或者啟發(fā)了你?請(qǐng)?jiān)谙旅娴脑u(píng)論區(qū)中告訴我們吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 二進(jìn)制
    +關(guān)注

    關(guān)注

    2

    文章

    807

    瀏覽量

    42333
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4381

    瀏覽量

    64890
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134623
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用

    騰訊會(huì)議---六月直播 1.機(jī)器學(xué)習(xí)賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用 2.COMSOL聲學(xué)多物理場(chǎng)仿真技術(shù)與應(yīng)用 3.超表面逆向設(shè)計(jì)及前沿應(yīng)用(從基礎(chǔ)入門到論文復(fù)現(xiàn)) 4.智能光學(xué)計(jì)算成像技術(shù)
    的頭像 發(fā)表于 06-04 17:59 ?171次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>賦能的智能光子學(xué)器件系統(tǒng)研究與應(yīng)用

    STM32+Android實(shí)現(xiàn)的智能家政機(jī)器人電路代碼論文及項(xiàng)目源碼

    STM32+Android實(shí)現(xiàn)的智能家政機(jī)器人電路代碼論文及項(xiàng)目部分截圖:
    發(fā)表于 05-28 21:22

    機(jī)器學(xué)習(xí)模型市場(chǎng)前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長(zhǎng)以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場(chǎng)前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)模型市場(chǎng)的未來發(fā)展。
    的頭像 發(fā)表于 02-13 09:39 ?364次閱讀

    嵌入式機(jī)器學(xué)習(xí)的應(yīng)用特性與軟件開發(fā)環(huán)境

    作者:DigiKey Editor 在許多嵌入式系統(tǒng)中,必須采用嵌入式機(jī)器學(xué)習(xí)(Embedded Machine Learning)技術(shù),這是指將機(jī)器學(xué)習(xí)模型部署在資源受限的設(shè)備(如微
    的頭像 發(fā)表于 01-25 17:05 ?661次閱讀
    嵌入式<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的應(yīng)用特性與軟件開發(fā)環(huán)境

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語。在本文中,我們會(huì)介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法特征,供各位老師選擇。 01 傳統(tǒng)機(jī)器
    的頭像 發(fā)表于 12-30 09:16 ?1191次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    如何選擇云原生機(jī)器學(xué)習(xí)平臺(tái)

    當(dāng)今,云原生機(jī)器學(xué)習(xí)平臺(tái)因其彈性擴(kuò)展、高效部署、低成本運(yùn)營(yíng)等優(yōu)勢(shì),逐漸成為企業(yè)構(gòu)建和部署機(jī)器學(xué)習(xí)應(yīng)用的首選。然而,市場(chǎng)上的云原生機(jī)器
    的頭像 發(fā)表于 12-25 11:54 ?457次閱讀

    學(xué)習(xí)硬件的第一節(jié)課:學(xué)習(xí)讀懂原理圖

    學(xué)習(xí)硬件的第一節(jié)課:學(xué)習(xí)讀懂原理圖 讀懂原理圖對(duì)嵌入式軟件工程師和程序員尤為重要。在深入細(xì)節(jié)之前請(qǐng)注意,對(duì)所有的嵌入式設(shè)計(jì)人員來說、能懂得硬件工程師創(chuàng)建和使用的來描述其硬件設(shè)計(jì)的原理圖
    的頭像 發(fā)表于 12-16 16:04 ?2413次閱讀
    <b class='flag-5'>學(xué)習(xí)</b>硬件的第一節(jié)課:<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>讀懂</b>原理圖

    螞蟻數(shù)科與浙大團(tuán)隊(duì)榮獲NeurIPS競(jìng)賽冠軍

    近日,在機(jī)器學(xué)習(xí)領(lǐng)域的頂級(jí)國(guó)際會(huì)議NeurIPS的特設(shè)競(jìng)賽中,螞蟻數(shù)科旗下的摩斯聯(lián)合浙江大學(xué)計(jì)算機(jī)體系結(jié)構(gòu)實(shí)驗(yàn)室陳文智、魏成坤團(tuán)隊(duì)組成的“Morse ARCLab”參賽隊(duì)伍憑借出色的表現(xiàn),成功在激烈的競(jìng)爭(zhēng)中脫穎而出,為中國(guó)AI技
    的頭像 發(fā)表于 11-26 10:27 ?886次閱讀

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機(jī)器學(xué)習(xí)”最初的研究動(dòng)機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆]有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?965次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問題?

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對(duì)計(jì)算資源的需求也在不斷增長(zhǎng)。NPU作為一種專門為深度學(xué)習(xí)機(jī)器
    的頭像 發(fā)表于 11-15 09:19 ?1223次閱讀

    具身智能與機(jī)器學(xué)習(xí)的關(guān)系

    具身智能(Embodied Intelligence)和機(jī)器學(xué)習(xí)(Machine Learning)是人工智能領(lǐng)域的兩個(gè)重要概念,它們之間存在著密切的關(guān)系。 1. 具身智能的定義 具身智能是指智能體
    的頭像 發(fā)表于 10-27 10:33 ?1050次閱讀

    人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個(gè)很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)。
    發(fā)表于 10-24 17:22 ?2978次閱讀
    人工智能、<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    2024 年 19 種最佳大型語言模型

    ,當(dāng)時(shí)一篇題為“通過聯(lián)合學(xué)習(xí)對(duì)齊和翻譯的神經(jīng)機(jī)器翻譯”的研究論文中引入了注意力機(jī)制(一種旨在模仿人類認(rèn)知注意力的機(jī)器學(xué)習(xí)技術(shù))。2017年,
    的頭像 發(fā)表于 08-30 12:56 ?991次閱讀
    2024 年 19 種<b class='flag-5'>最佳</b>大型語言模型

    【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 時(shí)間序列的信息提取

    之前對(duì)《時(shí)間序列與機(jī)器學(xué)習(xí)》一書進(jìn)行了整體瀏覽,并且非常輕松愉快的完成了第一章的學(xué)習(xí),今天開始學(xué)習(xí)第二章“時(shí)間序列的信息提取”。 先粗略的翻閱第二章,內(nèi)容復(fù)雜,充斥了大量的定義、推導(dǎo)計(jì)
    發(fā)表于 08-14 18:00

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡(jiǎn)單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時(shí)間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時(shí)間序列分析的基礎(chǔ)知識(shí),更巧妙地展示了機(jī)器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨
    發(fā)表于 08-12 11:21