一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹10個(gè)常見(jiàn)機(jī)器學(xué)習(xí)案例

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:機(jī)器之心 ? 作者:Jason Brownlee ? 2020-10-10 10:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹了 10 個(gè)常見(jiàn)機(jī)器學(xué)習(xí)案例,這些案例需要用線性代數(shù)才能得到最好的理解。

線性代數(shù)是數(shù)學(xué)的分支學(xué)科,涉及矢量、矩陣和線性變換。

它是機(jī)器學(xué)習(xí)的重要基礎(chǔ),從描述算法操作的符號(hào)到代碼中算法的實(shí)現(xiàn),都屬于該學(xué)科的研究范圍。

雖然線性代數(shù)是機(jī)器學(xué)習(xí)領(lǐng)域不可或缺的一部分,但二者的緊密關(guān)系往往無(wú)法解釋,或只能用抽象概念(如向量空間或特定矩陣運(yùn)算)解釋。

閱讀這篇文章后,你將會(huì)了解到:

如何在處理數(shù)據(jù)時(shí)使用線性代數(shù)結(jié)構(gòu),如表格數(shù)據(jù)集和圖像。

數(shù)據(jù)準(zhǔn)備過(guò)程中用到的線性代數(shù)概念,例如 one-hot 編碼和降維。

深度學(xué)習(xí)、自然語(yǔ)言處理和推薦系統(tǒng)等子領(lǐng)域中線性代數(shù)符號(hào)和方法的深入使用。

讓我們開(kāi)始吧。

這 10 個(gè)機(jī)器學(xué)習(xí)案例分別是:

1. Dataset and Data Files 數(shù)據(jù)集和數(shù)據(jù)文件2. Images and Photographs 圖像和照片3. One-Hot Encoding one-hot 編碼4. Linear Regression 線性回歸5. Regularization 正則化6. Principal Component Analysis 主成分分析7. Singular-Value Decomposition 奇異值分解8. Latent Semantic Analysis 潛在語(yǔ)義分析9. Recommender Systems 推薦系統(tǒng)10. Deep Learning 深度學(xué)習(xí)

1. 數(shù)據(jù)集和數(shù)據(jù)文件

在機(jī)器學(xué)習(xí)中,你可以在數(shù)據(jù)集上擬合一個(gè)模型。

這是表格式的一組數(shù)字,其中每行代表一組觀察值,每列代表觀測(cè)的一個(gè)特征。

例如,下面這組數(shù)據(jù)是鳶尾花數(shù)據(jù)集的一部分

數(shù)據(jù)集:http://archive.ics.uci.edu/ml/datasets/Iris

5.1,3.5,1.4,0.2,Iris-setosa 4.9,3.0,1.4,0.2,Iris-setosa 4.7,3.2,1.3,0.2,Iris-setosa 4.6,3.1,1.5,0.2,Iris-setosa 5.0,3.6,1.4,0.2,Iris-setosa

這些數(shù)據(jù)實(shí)際上是一個(gè)矩陣:線性代數(shù)中的一個(gè)關(guān)鍵數(shù)據(jù)結(jié)構(gòu)。

接下來(lái),將數(shù)據(jù)分解為輸入數(shù)據(jù)和輸出數(shù)據(jù),來(lái)擬合一個(gè)監(jiān)督機(jī)器學(xué)習(xí)模型(如測(cè)量值和花卉品種),得到矩陣(X)和矢量(y)。矢量是線性代數(shù)中的另一個(gè)關(guān)鍵數(shù)據(jù)結(jié)構(gòu)。

每行長(zhǎng)度相同,即每行的數(shù)據(jù)個(gè)數(shù)相同,因此我們可以說(shuō)數(shù)據(jù)是矢量化的。這些行數(shù)據(jù)可以一次性或成批地提供給模型,并且可以預(yù)先配置模型,以得到固定寬度的行數(shù)據(jù)。

2. 圖像和照片

也許你更習(xí)慣于在計(jì)算機(jī)視覺(jué)應(yīng)用中處理圖像或照片。

你使用的每個(gè)圖像本身都是一個(gè)固定寬度和高度的表格結(jié)構(gòu),每個(gè)單元格有用于表示黑白圖像的 1 個(gè)像素值或表示彩色圖像的 3 個(gè)像素值。

照片也是線性代數(shù)矩陣的一種。

與圖像相關(guān)的操作,如裁剪、縮放、剪切等,都是使用線性代數(shù)的符號(hào)和運(yùn)算來(lái)描述的。

3. one-hot 編碼

有時(shí)機(jī)器學(xué)習(xí)中要用到分類數(shù)據(jù)。

可能是用于解決分類問(wèn)題的類別標(biāo)簽,也可能是分類輸入變量。

對(duì)分類變量進(jìn)行編碼以使它們更易于使用并通過(guò)某些技術(shù)進(jìn)行學(xué)習(xí)是很常見(jiàn)的。one-hot 編碼是一種常見(jiàn)的分類變量編碼。

one-hot 編碼可以理解為:創(chuàng)建一個(gè)表格,用列表示每個(gè)類別,用行表示數(shù)據(jù)集中每個(gè)例子。在列中為給定行的分類值添加一個(gè)檢查或「1」值,并將「0」值添加到所有其他列。

例如,共計(jì) 3 行的顏色變量:

red green blue 。..

這些變量可能被編碼為:

red, green, blue 1, 0, 0 0, 1, 0 0, 0, 1 。..

每一行都被編碼為一個(gè)二進(jìn)制矢量,一個(gè)被賦予「0」或「1」值的矢量。這是一個(gè)稀疏表征的例子,線性代數(shù)的一個(gè)完整子域。

4. 線性回歸

線性回歸是一種用于描述變量之間關(guān)系的統(tǒng)計(jì)學(xué)傳統(tǒng)方法。

該方法通常在機(jī)器學(xué)習(xí)中用于預(yù)測(cè)較簡(jiǎn)單的回歸問(wèn)題的數(shù)值。

描述和解決線性回歸問(wèn)題有很多種方法,即找到一組系數(shù),用這些系數(shù)與每個(gè)輸入變量相乘并將結(jié)果相加,得出最佳的輸出變量預(yù)測(cè)。

如果您使用過(guò)機(jī)器學(xué)習(xí)工具或機(jī)器學(xué)習(xí)庫(kù),解決線性回歸問(wèn)題的最常用方法是通過(guò)最小二乘優(yōu)化,這一方法是使用線性回歸的矩陣分解方法解決的(例如 LU 分解或奇異值分解)。

即使是線性回歸方程的常用總結(jié)方法也使用線性代數(shù)符號(hào):

y = A 。 b

其中,y 是輸出變量,A 是數(shù)據(jù)集,b 是模型系數(shù)。

5. 正則化

在應(yīng)用機(jī)器學(xué)習(xí)時(shí),我們往往尋求最簡(jiǎn)單可行的模型來(lái)發(fā)揮解決問(wèn)題的最佳技能。

較簡(jiǎn)單的模型通常更擅長(zhǎng)從具體示例泛化到未見(jiàn)過(guò)的數(shù)據(jù)。

在涉及系數(shù)的許多方法中,例如回歸方法和人工神經(jīng)網(wǎng)絡(luò),較簡(jiǎn)單的模型通常具有較小的系數(shù)值。

一種常用于模型在數(shù)據(jù)擬合時(shí)盡量減小系數(shù)值的技術(shù)稱為正則化,常見(jiàn)的實(shí)現(xiàn)包括正則化的 L2 和 L1 形式。

這兩種正則化形式實(shí)際上是系數(shù)矢量的大小或長(zhǎng)度的度量,是直接脫胎于名為矢量范數(shù)的線性代數(shù)方法。

6. 主成分分析

通常,數(shù)據(jù)集有許多列,列數(shù)可能達(dá)到數(shù)十、數(shù)百、數(shù)千或更多。

對(duì)具有許多特征的數(shù)據(jù)進(jìn)行建模具有一定的挑戰(zhàn)性。而且,從包含不相關(guān)特征的數(shù)據(jù)構(gòu)建的模型通常不如用最相關(guān)的數(shù)據(jù)訓(xùn)練的模型。

我們很難知道數(shù)據(jù)的哪些特征是相關(guān)的,而哪些特征又不相關(guān)。

自動(dòng)減少數(shù)據(jù)集列數(shù)的方法稱為降維,其中也許最流行的方法是主成分分析法(簡(jiǎn)稱 PCA)。

該方法在機(jī)器學(xué)習(xí)中,為可視化和模型創(chuàng)建高維數(shù)據(jù)的投影。

PCA 方法的核心是線性代數(shù)的矩陣分解方法,可能會(huì)用到特征分解,更廣義的實(shí)現(xiàn)可以使用奇異值分解(SVD)。

7. 奇異值分解

另一種流行的降維方法是奇異值分解方法,簡(jiǎn)稱 SVD。

如上所述,正如該方法名稱所示,它是源自線性代數(shù)領(lǐng)域的矩陣分解方法。

該方法在線性代數(shù)中有廣泛的用途,可直接應(yīng)用于特征選擇、可視化、降噪等方面。

在機(jī)器學(xué)習(xí)中我們會(huì)看到以下兩個(gè)使用 SVD 的情況。

8. 潛在語(yǔ)義分析

在用于處理文本數(shù)據(jù)的機(jī)器學(xué)習(xí)子領(lǐng)域(稱為自然語(yǔ)言處理),通常將文檔表示為詞出現(xiàn)的大矩陣。

例如,矩陣的列可以是詞匯表中的已知詞,行可以是文本的句子、段落、頁(yè)面或文檔,矩陣中的單元格標(biāo)記為單詞出現(xiàn)的次數(shù)或頻率。

這是文本的稀疏矩陣表示。矩陣分解方法(如奇異值分解)可以應(yīng)用于此稀疏矩陣,該分解方法可以提煉出矩陣表示中相關(guān)性最強(qiáng)的部分。以這種方式處理的文檔比較容易用來(lái)比較、查詢,并作為監(jiān)督機(jī)器學(xué)習(xí)模型的基礎(chǔ)。

這種形式的數(shù)據(jù)準(zhǔn)備稱為潛在語(yǔ)義分析(簡(jiǎn)稱 LSA),也稱為潛在語(yǔ)義索引(LSI)。

9. 推薦系統(tǒng)

涉及產(chǎn)品推薦的預(yù)測(cè)建模問(wèn)題被稱為推薦系統(tǒng),這是機(jī)器學(xué)習(xí)的一個(gè)子領(lǐng)域。

例如,基于你在亞馬遜上的購(gòu)買記錄和與你類似的客戶的購(gòu)買記錄向你推薦書(shū)籍,或根據(jù)你或與你相似的用戶在 Netflix 上的觀看歷史向你推薦電影或電視節(jié)目。

推薦系統(tǒng)的開(kāi)發(fā)主要涉及線性代數(shù)方法。一個(gè)簡(jiǎn)單的例子就是使用歐式距離或點(diǎn)積之類的距離度量來(lái)計(jì)算稀疏顧客行為向量之間的相似度。

像奇異值分解這樣的矩陣分解方法在推薦系統(tǒng)中被廣泛使用,以提取項(xiàng)目和用戶數(shù)據(jù)的有用部分,以備查詢、檢索及比較。

10. 深度學(xué)習(xí)

人工神經(jīng)網(wǎng)絡(luò)是一種非線性機(jī)器學(xué)習(xí)算法,它受大腦中信息處理元素的啟發(fā),其有效性已經(jīng)在一系列問(wèn)題中得到驗(yàn)證,其中最重要的是預(yù)測(cè)建模。

深度學(xué)習(xí)是近期出現(xiàn)的、使用最新方法和更快硬件的人工神經(jīng)網(wǎng)絡(luò)的復(fù)興,這一方法使得在非常大的數(shù)據(jù)集上開(kāi)發(fā)和訓(xùn)練更大更深的(更多層)網(wǎng)絡(luò)成為可能。深度學(xué)習(xí)方法通常會(huì)在機(jī)器翻譯、照片字幕、語(yǔ)音識(shí)別等一系列具有挑戰(zhàn)性的領(lǐng)域取得最新成果。

神經(jīng)網(wǎng)絡(luò)的執(zhí)行涉及線性代數(shù)數(shù)據(jù)結(jié)構(gòu)的相乘和相加。如果擴(kuò)展到多個(gè)維度,深度學(xué)習(xí)方法可以處理向量、矩陣,甚至輸入和系數(shù)的張量,此處的張量是一個(gè)兩維以上的矩陣。

線性代數(shù)是描述深度學(xué)習(xí)方法的核心,它通過(guò)矩陣表示法來(lái)實(shí)現(xiàn)深度學(xué)習(xí)方法,例如 Google 的 TensorFlow Python 庫(kù),其名稱中包含「tensor」一詞。

責(zé)任編輯:lq
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【初學(xué)者】10個(gè)例子帶你了解機(jī)器學(xué)習(xí)中的線性代數(shù)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    嵌入式機(jī)器學(xué)習(xí)的應(yīng)用特性與軟件開(kāi)發(fā)環(huán)境

    設(shè)備和智能傳感器)上,這些設(shè)備通常具有有限的計(jì)算能力、存儲(chǔ)空間和功耗。本文將您介紹嵌入式機(jī)器學(xué)習(xí)的應(yīng)用特性,以及常見(jiàn)機(jī)器
    的頭像 發(fā)表于 01-25 17:05 ?654次閱讀
    嵌入式<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的應(yīng)用特性與軟件開(kāi)發(fā)環(huán)境

    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,學(xué)習(xí) AI,機(jī)器學(xué)習(xí)算法

    前言 由于本人最近在學(xué)習(xí)一些機(jī)器算法,AI 算法的知識(shí),需要搭建一個(gè)學(xué)習(xí)環(huán)境,所以就在最近購(gòu)買的華為云 Flexus X 實(shí)例上安裝了學(xué)習(xí)環(huán)
    的頭像 發(fā)表于 01-02 13:43 ?530次閱讀
    華為云 Flexus X 實(shí)例部署安裝 Jupyter Notebook,<b class='flag-5'>學(xué)習(xí)</b> AI,<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>算法

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語(yǔ)。在本文中,我們會(huì)介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多
    的頭像 發(fā)表于 12-30 09:16 ?1180次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    如何選擇云原生機(jī)器學(xué)習(xí)平臺(tái)

    當(dāng)今,云原生機(jī)器學(xué)習(xí)平臺(tái)因其彈性擴(kuò)展、高效部署、低成本運(yùn)營(yíng)等優(yōu)勢(shì),逐漸成為企業(yè)構(gòu)建和部署機(jī)器學(xué)習(xí)應(yīng)用的首選。然而,市場(chǎng)上的云原生機(jī)器
    的頭像 發(fā)表于 12-25 11:54 ?452次閱讀

    zeta在機(jī)器學(xué)習(xí)中的應(yīng)用 zeta的優(yōu)缺點(diǎn)分析

    的應(yīng)用(基于低功耗廣域物聯(lián)網(wǎng)技術(shù)ZETA) ZETA作為一種低功耗廣域物聯(lián)網(wǎng)(LPWAN)技術(shù),雖然其直接應(yīng)用于機(jī)器學(xué)習(xí)的場(chǎng)景可能并不常見(jiàn),但它可以通過(guò)提供高效、穩(wěn)定的物聯(lián)網(wǎng)通信支持,間接促進(jìn)
    的頭像 發(fā)表于 12-20 09:11 ?1120次閱讀

    cmp在機(jī)器學(xué)習(xí)中的作用 如何使用cmp進(jìn)行數(shù)據(jù)對(duì)比

    機(jī)器學(xué)習(xí)領(lǐng)域,"cmp"這個(gè)術(shù)語(yǔ)可能并不是一個(gè)常見(jiàn)的術(shù)語(yǔ),它可能是指"比較"(comparison)的縮寫(xiě)。 比較在機(jī)器
    的頭像 發(fā)表于 12-17 09:35 ?869次閱讀

    什么是機(jī)器學(xué)習(xí)?通過(guò)機(jī)器學(xué)習(xí)方法能解決哪些問(wèn)題?

    來(lái)源:Master編程樹(shù)“機(jī)器學(xué)習(xí)”最初的研究動(dòng)機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆](méi)有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?959次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過(guò)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問(wèn)題?

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對(duì)計(jì)算資源的需求也在不斷增長(zhǎng)。NPU作為一種專門(mén)為深度學(xué)習(xí)機(jī)器
    的頭像 發(fā)表于 11-15 09:19 ?1208次閱讀

    eda在機(jī)器學(xué)習(xí)中的應(yīng)用

    值和噪聲數(shù)據(jù)。通過(guò)繪制箱線圖、直方圖和散點(diǎn)圖,我們可以直觀地看到數(shù)據(jù)中的異常值和分布情況。例如,如果一個(gè)數(shù)據(jù)集中的某個(gè)特征值遠(yuǎn)高于其他值,這可能是一個(gè)異常值,需要進(jìn)一步調(diào)查。 2. 特征選擇 特征選擇 是機(jī)器
    的頭像 發(fā)表于 11-13 10:42 ?885次閱讀

    具身智能與機(jī)器學(xué)習(xí)的關(guān)系

    具身智能(Embodied Intelligence)和機(jī)器學(xué)習(xí)(Machine Learning)是人工智能領(lǐng)域的兩個(gè)重要概念,它們之間存在著密切的關(guān)系。 1. 具身智能的定義 具身智能是指智能體
    的頭像 發(fā)表于 10-27 10:33 ?1047次閱讀

    人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個(gè)很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)。
    發(fā)表于 10-24 17:22 ?2972次閱讀
    人工智能、<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬(wàn)億的參數(shù),模型大小可以達(dá)到數(shù)百GB甚至更大。這些模型結(jié)構(gòu)復(fù)雜,由
    的頭像 發(fā)表于 10-23 15:01 ?2561次閱讀

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡(jiǎn)單建議

    這本書(shū)以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時(shí)間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時(shí)間序列分析的基礎(chǔ)知識(shí),更巧妙地展示了機(jī)器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨
    發(fā)表于 08-12 11:21

    【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 了解時(shí)間序列

    收到《時(shí)間序列與機(jī)器學(xué)習(xí)》一書(shū),彩色印刷,公式代碼清晰,非常精美。感謝作者,感謝電子發(fā)燒友提供了一個(gè)讓我學(xué)習(xí)時(shí)間序列及應(yīng)用的機(jī)會(huì)! 前言第一段描述了編寫(xiě)背景: 由此可知,這是一本關(guān)于時(shí)
    發(fā)表于 08-11 17:55

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書(shū)概覽與時(shí)間序列概述

    本帖最后由 1653149838.791300 于 2024-8-12 20:18 編輯 [/td] [td]收到《時(shí)間序列與機(jī)器學(xué)習(xí)》這本書(shū),很是欣喜,書(shū)籍內(nèi)容很詳實(shí)也是自己很感興趣
    發(fā)表于 08-07 23:03