一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么要用無(wú)監(jiān)督學(xué)習(xí)?無(wú)監(jiān)督深度學(xué)習(xí)范例研究

jmiy_worldofai ? 來(lái)源:未知 ? 作者:李倩 ? 2018-09-27 18:48 ? 次閱讀

作為數(shù)據(jù)科學(xué)家,我們平時(shí)的工作是使用各種機(jī)器學(xué)習(xí)算法從數(shù)據(jù)中提取可操作的信息。其中大多數(shù)是有監(jiān)督學(xué)習(xí)問題,因?yàn)槟阋呀?jīng)知道目標(biāo)函數(shù)是什么。給出的數(shù)據(jù)有很多細(xì)節(jié)能幫助你實(shí)現(xiàn)最終目標(biāo)。

雖然無(wú)監(jiān)督學(xué)習(xí)是一項(xiàng)十分復(fù)雜的挑戰(zhàn),但是它有許多優(yōu)點(diǎn)。它有潛力解決以前無(wú)法解決的問題,在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域得到了大量的注意力。

這篇文章的目的是直觀地介紹一下無(wú)監(jiān)督學(xué)習(xí),以及它在現(xiàn)實(shí)生活中的應(yīng)用。

注意——閱讀這篇文章需要讀者具有一定深度學(xué)習(xí)基礎(chǔ),并且了解機(jī)器學(xué)習(xí)的概念。

為什么要用無(wú)監(jiān)督學(xué)習(xí)?

機(jī)器學(xué)習(xí)項(xiàng)目中的典型方法是以有監(jiān)督的方式設(shè)計(jì)的。我們告訴算法該做什么和不該做什么。這是一個(gè)解決問題的通用結(jié)構(gòu),但是它從兩個(gè)方面限制了算法的潛力:

算法受到監(jiān)督信息的偏見的約束。沒錯(cuò),算法是自己學(xué)會(huì)的如何完成這項(xiàng)任務(wù)。但是,算法在解決問題時(shí)無(wú)法去考慮其他可能出現(xiàn)的情況。

由于學(xué)習(xí)在監(jiān)督下進(jìn)行,為算法創(chuàng)建標(biāo)簽需要花費(fèi)巨大的人力。手動(dòng)創(chuàng)建的標(biāo)簽越少,算法可以用于訓(xùn)練的數(shù)據(jù)就越少。

為了以一種智能的方式來(lái)解決這一問題,我們可以采用非監(jiān)督學(xué)習(xí)算法。非監(jiān)督學(xué)習(xí)直接從數(shù)據(jù)本身得到數(shù)據(jù)的性質(zhì),然后總結(jié)數(shù)據(jù)或?qū)?shù)據(jù)分組,讓我們可以使用這些性質(zhì)來(lái)進(jìn)行數(shù)據(jù)驅(qū)動(dòng)的決策。

讓我們用一個(gè)例子來(lái)更好地理解這個(gè)概念。比如說,銀行想要對(duì)客戶進(jìn)行分組,以便他們能向客戶推薦合適的產(chǎn)品。他們可以通過數(shù)據(jù)驅(qū)動(dòng)的方式來(lái)完成這件事——首先通過客戶的年齡對(duì)客戶進(jìn)行細(xì)分,然后從這些分組中得到客戶的特性。這將有助于銀行向客戶提供更好的產(chǎn)品推薦,從而提高客戶滿意度。

無(wú)監(jiān)督深度學(xué)習(xí)范例研究

在這篇文章中,我們將介紹一個(gè)基于非結(jié)構(gòu)化數(shù)據(jù)的無(wú)監(jiān)督學(xué)習(xí)的范例研究。深度學(xué)習(xí)技術(shù)通常在處理非結(jié)構(gòu)化數(shù)據(jù)時(shí)能力最強(qiáng)。因此,我們以深度學(xué)習(xí)在圖像處理領(lǐng)域的應(yīng)用為例,來(lái)理解這個(gè)概念。

定義問題——如何整理照片庫(kù)

現(xiàn)在,我的手機(jī)里有2000張照片。如果我是一個(gè)自拍狂,照片的數(shù)量很可能是這個(gè)數(shù)字的10倍。挑選這些照片是一場(chǎng)噩夢(mèng),因?yàn)榛旧厦咳龔堈掌芯陀幸粡垖?duì)我來(lái)說是無(wú)用的。我相信大多數(shù)人都有同樣的問題。

理想情況下,我想要的是一個(gè)能夠整理照片的應(yīng)用程序,可以讓我隨時(shí)瀏覽大部分照片。這樣我也可以知道我目前有多少類照片。

為了更清楚地了解這個(gè)問題,我嘗試自己對(duì)照片進(jìn)行分類。以下是我總結(jié)的情況:

首先,我發(fā)現(xiàn)我的照片庫(kù)中有三分之一都是網(wǎng)絡(luò)趣圖(感謝WhatsApp的可愛的朋友們)。

我個(gè)人也會(huì)收集一些在Reddit上看到的有趣的回答或分享。

至少有200張照片,是我在著名的DataHack Summit會(huì)議上,和隨后去喀拉拉的旅行

中拍攝的,也有一些是同事分享給我的。

也有一些照片記錄了會(huì)議期間的白板討論內(nèi)容。

還有一些截圖記錄了代碼錯(cuò)誤,需要內(nèi)部團(tuán)隊(duì)討論。使用后必須清除它們。

我還發(fā)現(xiàn)了一些“個(gè)人隱私”圖像,如自拍、合影和幾個(gè)特殊場(chǎng)景。它們數(shù)量不多,但它們是我珍貴的財(cái)產(chǎn)。

最后,有無(wú)數(shù)張“早上好”、“生日快樂”和“幸福的排燈節(jié)”的海報(bào),我想方設(shè)法把它們從照片庫(kù)中刪除。但是不管我怎么刪除它們,它們還是會(huì)出現(xiàn)!

在下面的章節(jié)中,我們將討論一些我想出的解決這個(gè)問題的方法。

方法一:基于時(shí)間分類

最簡(jiǎn)單的方法是按照時(shí)間來(lái)整理照片。每一天都可以有不同的文件夾。大多數(shù)照片瀏覽應(yīng)用程序均使用這種方法(如谷歌照片應(yīng)用程序)。

這樣做的好處是,當(dāng)天發(fā)生的所有事件都會(huì)被存儲(chǔ)在一起。這種方法的缺點(diǎn)是它太普通了。每一天,我都可能拍攝郊游的照片,同時(shí)把有意思的回答截圖下來(lái),等等。它們會(huì)混在一起,這完全沒有達(dá)到我的目的。

方法二:基于位置分類

一個(gè)相對(duì)較好的方法是根據(jù)拍攝地點(diǎn)整理照片。例如,每次照相,我們都可以記錄照片拍攝的地方。然后,我們可以根據(jù)這些位置——無(wú)論是國(guó)家、城市還是地區(qū),按照我們想要的區(qū)域粒度來(lái)制作文件夾。這種方法也被許多照片應(yīng)用程序所使用。

這種方法的缺點(diǎn)在于它的想法過于簡(jiǎn)單。我們?nèi)绾味x一張搞笑圖片,或者一張卡通圖的位置?而它們?cè)谖业恼掌瑤?kù)中占有相當(dāng)大的份額。所以這種方法也不夠巧妙。

方法三:提取照片的語(yǔ)義信息,并用它來(lái)定義我的照片庫(kù)

到目前為止,我們所看到的方法大多依賴于和照片同時(shí)獲得的元數(shù)據(jù)。整理照片的一種更好的方法是從圖像本身中提取語(yǔ)義信息并智能地使用這些信息。

讓我們把這個(gè)想法分成幾個(gè)部分。假設(shè)我們有多樣性類似(如上所述)的照片。我們的算法應(yīng)該捕捉哪些趨勢(shì)?

拍攝的是自然場(chǎng)景圖像還是人工生成的圖像?

照片里有文字材料嗎?如果有的話,我們能識(shí)別出它是什么嗎?

照片中有什么不同的物體?它們的結(jié)合能確定照片的美感嗎?

照片里有人嗎?我們能認(rèn)出他們嗎?

網(wǎng)絡(luò)上有相似的圖像可以幫助我們識(shí)別圖像的內(nèi)容嗎?

因此,我們的算法應(yīng)該能理想地捕捉這個(gè)信息,而不需要明顯的標(biāo)記,并用它來(lái)整理、分類我們的照片。理想情況下,最終的應(yīng)用程序界面應(yīng)該是這樣的:

這種方法就是以“無(wú)監(jiān)督的方式”來(lái)解決問題。我們沒有直接定義我們想要的結(jié)果。相反,我們訓(xùn)練一個(gè)算法為我們找到這些結(jié)果。我們的算法以智能的方式對(duì)數(shù)據(jù)進(jìn)行了總結(jié),然后在這些推論的基礎(chǔ)上嘗試解決這個(gè)問題。很酷,對(duì)吧?

現(xiàn)在你可能想知道,我們?cè)撊绾卫蒙疃葘W(xué)習(xí)來(lái)處理無(wú)監(jiān)督的學(xué)習(xí)問題?

正如我們?cè)谏厦娴陌咐芯恐锌吹降?,通過從圖像中提取語(yǔ)義信息,我們可以更好地了解圖像的相似性。因此,我們的問題可以表述為:我們?cè)撊绾谓档蛨D像的維度,使我們可以從這些編碼表示重建圖像。

我們可以利用一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)——自編碼器。

自動(dòng)編碼器的思想是,訓(xùn)練它從學(xué)習(xí)到的特征來(lái)重構(gòu)輸入。亮點(diǎn)在于,它用一個(gè)很小的特征表示來(lái)重構(gòu)輸入。

例如,一個(gè)設(shè)置編碼維度為10的自動(dòng)編碼器,在貓的圖像上訓(xùn)練,每一張圖像大小為100×100。所以輸入維數(shù)是10000,而自動(dòng)編碼器需要用一個(gè)大小為10的矢量表示輸入所有信息(如下圖所示)。

一個(gè)自動(dòng)編碼器從邏輯上可以分為兩個(gè)部分:編碼器和解碼器。編碼器的任務(wù)是將輸入轉(zhuǎn)化成一個(gè)低維表示,而解碼器的任務(wù)是從低維表示重構(gòu)輸入。

雖然這一領(lǐng)域的研究正在蓬勃發(fā)展,但目前最先進(jìn)的方法也無(wú)法輕松解決工業(yè)層面的問題,我們的算法想真正“投入工業(yè)使用”還需幾年時(shí)間。

在MNIST數(shù)據(jù)集上進(jìn)行無(wú)監(jiān)督深度學(xué)習(xí)的代碼詳解

現(xiàn)在我們已經(jīng)基本了解了如何使用深度學(xué)習(xí)解決無(wú)監(jiān)督學(xué)習(xí)問題,下面我們要把學(xué)到的知識(shí)運(yùn)用在現(xiàn)實(shí)生活的問題中。這里,我們以MNIST數(shù)據(jù)集為例,MNIST數(shù)據(jù)集一直是深度學(xué)習(xí)測(cè)試的必選數(shù)據(jù)集。在解讀代碼之前,讓我們先了解一下問題的定義。

原始問題是確定圖像中的數(shù)字。數(shù)據(jù)庫(kù)會(huì)給出圖像所含數(shù)字的標(biāo)簽。在我們的案例研究中,我們將嘗試找出數(shù)據(jù)庫(kù)中相似的圖片,并將它們聚成一類。我們將通過標(biāo)簽來(lái)評(píng)估每個(gè)類別的純度。你可以在AV的DataHack平臺(tái)下載數(shù)據(jù)——“識(shí)別數(shù)字”實(shí)踐問題。

我們會(huì)測(cè)試三種無(wú)監(jiān)督學(xué)習(xí)技術(shù),然后評(píng)價(jià)它們的表現(xiàn):

直接對(duì)圖像進(jìn)行KMeans聚類

KMeans + 自編碼器

深度嵌入式聚類算法

在開始實(shí)驗(yàn)之前,確保你已經(jīng)在系統(tǒng)中安裝了Keras。(可參考官方安裝指南。)我們將用TensorFlow作為后臺(tái),所以你要確保配置文件中有這一項(xiàng)。如果沒有,按照這里給出的步驟進(jìn)行操作。

(小編:少俠,手機(jī)看代碼看不全?用電腦復(fù)制代碼吧?。?/p>

我們需要用到Xifeng Guo實(shí)現(xiàn)的DEC算法開源代碼。在命令行輸入如下命令:

git clone https://github.com/XifengGuo/DEC-keras cd DEC-keras

你可以打開一個(gè)Jupyter Notebook,跟著下面的代碼一起操作。

首先我們需要導(dǎo)入所有必需的模塊。

%pylab inlineimport osimport kerasimport metricsimport numpy as npimport pandas as pdimport keras.backend as Kfrom time import timefrom keras import callbacksfrom keras.models import Modelfrom keras.optimizers import SGDfrom keras.layers import Dense, Inputfrom keras.initializers import VarianceScalingfrom keras.engine.topology import Layer, InputSpecfrom scipy.misc import imreadfrom sklearn.cluster import KMeansfrom sklearn.metrics import accuracy_score, normalized_mutual_info_score

下面我們將種子的值設(shè)為一個(gè)受限隨機(jī)數(shù)。

# To stop potential randomnessseed = 128rng = np.random.RandomState(seed)

現(xiàn)在設(shè)置數(shù)據(jù)的工作路徑,方便后續(xù)訪問。

root_dir = os.path.abspath('.')data_dir = os.path.join(root_dir, 'data', 'mnist')

讀入訓(xùn)練和測(cè)試文件。

train = pd.read_csv(os.path.join(data_dir, 'train.csv'))test = pd.read_csv(os.path.join(data_dir, 'test.csv'))train.head()

在這個(gè)數(shù)據(jù)庫(kù)中,每個(gè)圖片都有類標(biāo),這在非監(jiān)督學(xué)習(xí)中并不常見,這里,我們用這些類標(biāo)來(lái)評(píng)估無(wú)監(jiān)督學(xué)習(xí)模型的表現(xiàn)。

現(xiàn)在讓我們把數(shù)據(jù)顯示成一張圖片:

img_name = rng.choice(train.filename)filepath = os.path.join(data_dir, 'train', img_name)img = imread(filepath, flatten=True)pylab.imshow(img, cmap='gray')pylab.axis('off')pylab.show()

隨后我們讀入所有圖片,將它們存儲(chǔ)成一個(gè)numpy矩陣,創(chuàng)建訓(xùn)練和測(cè)試文件。

temp = []for img_name in train.filename: image_path = os.path.join(data_dir, 'train', img_name) img = imread(image_path, flatten=True) img = img.astype('float32') temp.append(img) train_x = np.stack(temp)train_x /= 255.0train_x = train_x.reshape(-1, 784).astype('float32')temp = []for img_name in test.filename: image_path = os.path.join(data_dir, 'test', img_name) img = imread(image_path, flatten=True) img = img.astype('float32') temp.append(img) test_x = np.stack(temp)test_x /= 255.0test_x = test_x.reshape(-1, 784).astype('float32')train_y = train.label.values

我們將訓(xùn)練數(shù)據(jù)分成訓(xùn)練集和測(cè)試集。

split_size = int(train_x.shape[0]*0.7)train_x, val_x = train_x[:split_size], train_x[split_size:]train_y, val_y = train_y[:split_size], train_y[split_size:]

K-Means

我們首先直接對(duì)圖像使用K-Means聚類,將其聚成10類。

km = KMeans(n_jobs=-1, n_clusters=10, n_init=20)km.fit(train_x)KMeans(algorithm='auto', copy_x=True, init='k-means++', max_iter=300, n_clusters=10, n_init=20, n_jobs=-1, precompute_distances='auto', random_state=None, tol=0.0001, verbose=0)

現(xiàn)在我們已經(jīng)訓(xùn)練了模型,下面看一下它在驗(yàn)證集上的表現(xiàn)如何。

pred = km.predict(val_x)

我們將使用歸一化互信息(NMI)分?jǐn)?shù)來(lái)評(píng)估我們的模型。

互信息是聚類結(jié)果和人工分類之間依賴程度的對(duì)稱性度量。它基于聚類純度PI的概念,通過將Ci與M中的所有手動(dòng)分類進(jìn)行比較,衡量單個(gè)聚類Ci的質(zhì)量,即Ci與Mj中相同目標(biāo)的最大數(shù)量。因?yàn)镹MI是歸一化的,所以我們可以使用它來(lái)比較聚類個(gè)數(shù)不同的聚類結(jié)果。

NMI公式如下:

normalized_mutual_info_score(val_y, pred) 0.4978202013979692

K-Means + AutoEncoder

現(xiàn)在,我們不直接使用K-Means,我們首先用自編碼器降低數(shù)據(jù)維度,提取有用信息,再將這些信息傳遞給K-Means算法。

# this is our input placeholderinput_img = Input(shape=(784,))# "encoded" is the encoded representation of the inputencoded = Dense(500, activation='relu')(input_img)encoded = Dense(500, activation='relu')(encoded)encoded = Dense(2000, activation='relu')(encoded)encoded = Dense(10, activation='sigmoid')(encoded)# "decoded" is the lossy reconstruction of the inputdecoded = Dense(2000, activation='relu')(encoded)decoded = Dense(500, activation='relu')(decoded)decoded = Dense(500, activation='relu')(decoded)decoded = Dense(784)(decoded)# this model maps an input to its reconstructionautoencoder = Model(input_img, decoded)autoencoder.summary() _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= input_1 (InputLayer) (None, 784) 0 _________________________________________________________________ dense_2 (Dense) (None, 500) 392500 _________________________________________________________________ dense_3 (Dense) (None, 500) 250500 _________________________________________________________________ dense_4 (Dense) (None, 2000) 1002000 _________________________________________________________________ dense_5 (Dense) (None, 10) 20010 _________________________________________________________________ dense_6 (Dense) (None, 2000) 22000 _________________________________________________________________ dense_7 (Dense) (None, 500) 1000500 _________________________________________________________________ dense_8 (Dense) (None, 500) 250500 _________________________________________________________________ dense_9 (Dense) (None, 784) 392784 =================================================================Total params: 3,330,794Trainable params: 3,330,794Non-trainable params: 0_________________________________________________________________# this model maps an input to its encoded representationencoder = Model(input_img, encoded)autoencoder.compile(optimizer='adam', loss='mse')

現(xiàn)在訓(xùn)練自編碼器模型:

train_history = autoencoder.fit(train_x,train_x, epochs=500, batch_size=2048, validation_data=(val_x, val_x)) Train on 34300 samples, validate on 14700 samples Epoch 1/50034300/34300 [==============================] - 2s 60us/step - loss: 0.0805 - val_loss: 0.0666...Epoch 494/50034300/34300 [==============================] - 0s 11us/step - loss: 0.0103 - val_loss: 0.0138Epoch 495/50034300/34300 [==============================] - 0s 10us/step - loss: 0.0103 - val_loss: 0.0138Epoch 496/50034300/34300 [==============================] - 0s 11us/step - loss: 0.0103 - val_loss: 0.0138Epoch 497/50034300/34300 [==============================] - 0s 11us/step - loss: 0.0103 - val_loss: 0.0139Epoch 498/50034300/34300 [==============================] - 0s 11us/step - loss: 0.0103 - val_loss: 0.0137Epoch 499/50034300/34300 [==============================] - 0s 11us/step - loss: 0.0103 - val_loss: 0.0139Epoch 500/50034300/34300 [==============================] - 0s 11us/step - loss: 0.0104 - val_loss: 0.0138pred_auto_train = encoder.predict(train_x)pred_auto = encoder.predict(val_x)km.fit(pred_auto_train)pred = km.predict(pred_auto)normalized_mutual_info_score(val_y, pred)0.7435578557037037

從結(jié)果可以看到,將自編碼器與K-Means結(jié)合起來(lái),算法效果比僅使用K-Means的效果要好。

DEC

最后,我們看一下DEC算法的實(shí)現(xiàn)。DEC算法將聚類和自編碼器放在一起訓(xùn)練以取得更好的效果。(論文:Junyuan Xie, Ross Girshick, and Ali Farhadi. Unsupervised deep embedding for clustering analysis. ICML 2016.)

代碼鏈接:

http://www.infoq.com/cn/articles/trudging-into-unsupervised-deep-learning

DEC算法與上述兩種方法相比,效果最好。研究人員發(fā)現(xiàn),進(jìn)一步訓(xùn)練DEC模型可以達(dá)到更高的性能(NMI高達(dá)87)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:深度學(xué)習(xí)的關(guān)鍵:無(wú)監(jiān)督深度學(xué)習(xí)簡(jiǎn)介(附Python代碼)

文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深非監(jiān)督學(xué)習(xí)-Hierarchical clustering 層次聚類python的實(shí)現(xiàn)

    深度學(xué)習(xí)基礎(chǔ)-17】非監(jiān)督學(xué)習(xí)-Hierarchical clustering 層次聚類-python實(shí)現(xiàn)
    發(fā)表于 04-28 10:07

    采用無(wú)監(jiān)督學(xué)習(xí)的方法,用深度摘要網(wǎng)絡(luò)總結(jié)視頻

    中科院和英國(guó)倫敦大學(xué)瑪麗女王學(xué)院的研究人員就生成視頻摘要提出了一種新方法,采用無(wú)監(jiān)督學(xué)習(xí)的方法,用深度摘要網(wǎng)絡(luò)(Deep Summarization Network,DSN)總結(jié)視頻。
    的頭像 發(fā)表于 01-15 10:49 ?7357次閱讀
    采用<b class='flag-5'>無(wú)</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>的方法,用<b class='flag-5'>深度</b>摘要網(wǎng)絡(luò)總結(jié)視頻

    基于半監(jiān)督學(xué)習(xí)框架的識(shí)別算法

    人體行為識(shí)別是計(jì)算機(jī)視覺研究的熱點(diǎn)問題,現(xiàn)有的行為識(shí)別方法都是基于監(jiān)督學(xué)習(xí)框架.為了取得較好的識(shí)別效果,通常需要大量的有標(biāo)記樣本來(lái)建模.然而,獲取有標(biāo)記樣本是一個(gè)費(fèi)時(shí)又費(fèi)力的工作.為了解決這個(gè)
    發(fā)表于 01-21 10:41 ?1次下載

    利用機(jī)器學(xué)習(xí)來(lái)捕捉內(nèi)部漏洞的工具運(yùn)用無(wú)監(jiān)督學(xué)習(xí)方法可發(fā)現(xiàn)入侵者

    Darktrace新網(wǎng)絡(luò)安全公司與劍橋大學(xué)的數(shù)學(xué)家合作,開發(fā)了一種利用機(jī)器學(xué)習(xí)來(lái)捕捉內(nèi)部漏洞的工具。它運(yùn)用無(wú)監(jiān)督學(xué)習(xí)方法,查看大量未標(biāo)記的數(shù)據(jù),并找到不遵循典型模式的碎片。這些原始數(shù)據(jù)匯集到60多種不同的
    發(fā)表于 11-22 16:01 ?1304次閱讀

    你想要的機(jī)器學(xué)習(xí)課程筆記在這:主要討論監(jiān)督學(xué)習(xí)無(wú)監(jiān)督學(xué)習(xí)

    with experience E(一個(gè)程序從經(jīng)驗(yàn)E中學(xué)習(xí)解決任務(wù)T進(jìn)行某一任務(wù)量度P,通過P測(cè)量在T的表現(xiàn)而提高經(jīng)驗(yàn)E(另一種定義:機(jī)器學(xué)習(xí)是用數(shù)據(jù)或以往的經(jīng)驗(yàn),以此優(yōu)化計(jì)算機(jī)程序的性能標(biāo)準(zhǔn)。) 不同類型的機(jī)器學(xué)習(xí)算法:主要
    發(fā)表于 12-03 17:12 ?664次閱讀

    如何用Python進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種用于在數(shù)據(jù)中查找模式的機(jī)器學(xué)習(xí)技術(shù)。無(wú)監(jiān)督算法給出的數(shù)據(jù)不帶標(biāo)記,只給出輸入變量(X),沒有相應(yīng)的輸出變量。在
    的頭像 發(fā)表于 01-21 17:23 ?4481次閱讀

    無(wú)監(jiān)督機(jī)器學(xué)習(xí)如何保護(hù)金融

    無(wú)監(jiān)督機(jī)器學(xué)習(xí)是近年才發(fā)展起來(lái)的反欺詐手法。目前國(guó)內(nèi)反欺詐金融服務(wù)主要是應(yīng)用黑白名單、有監(jiān)督學(xué)習(xí)無(wú)監(jiān)督
    發(fā)表于 05-01 22:11 ?1084次閱讀

    機(jī)器學(xué)習(xí)算法中有監(jiān)督無(wú)監(jiān)督學(xué)習(xí)的區(qū)別

    無(wú)監(jiān)督學(xué)習(xí)的好處之一是,它不需要監(jiān)督學(xué)習(xí)必須經(jīng)歷的費(fèi)力的數(shù)據(jù)標(biāo)記過程。但是,要權(quán)衡的是,評(píng)估其性能的有效性也非常困難。相反,通過將監(jiān)督學(xué)習(xí)算法的輸出與測(cè)試數(shù)據(jù)的實(shí)際標(biāo)簽進(jìn)行比較,可以很
    的頭像 發(fā)表于 07-07 10:18 ?5966次閱讀

    最基礎(chǔ)的半監(jiān)督學(xué)習(xí)

    標(biāo)記數(shù)據(jù)訓(xùn)練的監(jiān)督學(xué)習(xí)技術(shù)得到更好的結(jié)果。這是半監(jiān)督學(xué)習(xí)系列文章的第1部分,對(duì)這個(gè)機(jī)器學(xué)習(xí)的重要子領(lǐng)域進(jìn)行了簡(jiǎn)要的介紹。 區(qū)分半監(jiān)督學(xué)習(xí),監(jiān)督學(xué)習(xí)
    的頭像 發(fā)表于 11-02 16:08 ?2814次閱讀

    監(jiān)督學(xué)習(xí)最基礎(chǔ)的3個(gè)概念

    導(dǎo)讀 今天給大家介紹半監(jiān)督學(xué)習(xí)中的3個(gè)最基礎(chǔ)的概念:一致性正則化,熵最小化和偽標(biāo)簽,并介紹了兩個(gè)經(jīng)典的半監(jiān)督學(xué)習(xí)方法。 沒看一的點(diǎn)這里哈:半監(jiān)督學(xué)習(xí)入門基礎(chǔ)(一) 半監(jiān)督學(xué)習(xí) (SSL
    的頭像 發(fā)表于 11-02 16:14 ?3154次閱讀
    半<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>最基礎(chǔ)的3個(gè)概念

    為什么半監(jiān)督學(xué)習(xí)是機(jī)器學(xué)習(xí)的未來(lái)?

    為什么半監(jiān)督學(xué)習(xí)是機(jī)器學(xué)習(xí)的未來(lái)。 監(jiān)督學(xué)習(xí)是人工智能領(lǐng)域的第一種學(xué)習(xí)類型。從它的概念開始,無(wú)數(shù)的算法,從簡(jiǎn)單的邏輯回歸到大規(guī)模的神經(jīng)網(wǎng)絡(luò),都已經(jīng)被
    的頭像 發(fā)表于 11-27 10:42 ?4055次閱讀

    監(jiān)督學(xué)習(xí):比監(jiān)督學(xué)習(xí)做的更好

    監(jiān)督學(xué)習(xí)是人工智能領(lǐng)域的第一種學(xué)習(xí)類型。從它的概念開始,無(wú)數(shù)的算法,從簡(jiǎn)單的邏輯回歸到大規(guī)模的神經(jīng)網(wǎng)絡(luò),都已經(jīng)被研究用來(lái)提高精...
    的頭像 發(fā)表于 12-08 23:32 ?1593次閱讀

    機(jī)器學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)應(yīng)用在哪些領(lǐng)域

    監(jiān)督學(xué)習(xí)|機(jī)器學(xué)習(xí)| 集成學(xué)習(xí)|進(jìn)化計(jì)算| 非監(jiān)督學(xué)習(xí)| 半監(jiān)督學(xué)習(xí)| 自監(jiān)督學(xué)習(xí)|?
    發(fā)表于 01-20 10:52 ?5126次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>中的<b class='flag-5'>無(wú)</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>應(yīng)用在哪些領(lǐng)域

    深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無(wú)監(jiān)督學(xué)習(xí)深度學(xué)習(xí)中扮演著越來(lái)越重要的角色。本文旨在綜述深度學(xué)習(xí)中的
    的頭像 發(fā)表于 07-09 10:50 ?1377次閱讀

    神經(jīng)網(wǎng)絡(luò)如何用無(wú)監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無(wú)監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。無(wú)監(jiān)督學(xué)習(xí)
    的頭像 發(fā)表于 07-09 18:06 ?1236次閱讀