一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)框架里不同層面的隱私保護(hù)

如意 ? 來源:AI科技大本營 ? 作者:張輝帥 ? 2020-09-04 11:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:數(shù)據(jù)時(shí)代,人們從技術(shù)中獲取便利的同時(shí),也面臨著隱私泄露的風(fēng)險(xiǎn)。微軟倡導(dǎo)負(fù)責(zé)任的人工智能,因此機(jī)器學(xué)習(xí)中的隱私保護(hù)問題至關(guān)重要。本文介紹了目前機(jī)器學(xué)習(xí)中隱私保護(hù)領(lǐng)域的最新研究進(jìn)展,討論了機(jī)密計(jì)算、模型隱私和聯(lián)邦學(xué)習(xí)等不同層面的隱私保護(hù)方法。

作者 | 張輝帥

在大數(shù)據(jù)和人工智能的時(shí)代,人們能夠更方便高效地獲取信息。然而在獲得便利的同時(shí),我們的行為無時(shí)無刻不在被記錄、被學(xué)習(xí)、被使用。如果在應(yīng)用中不注重隱私保護(hù),就很難阻止個(gè)人信息被用于非法目的。近年來,越來越多的人開始重視數(shù)據(jù)隱私,在選擇使用客戶端軟件(App)時(shí)更加關(guān)注隱私條款。有研究表明,對于隱私的保護(hù)可以提高用戶的使用率[1]。

此外,在法律層面,歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)規(guī)范了企業(yè)收集、管理、刪除客戶和個(gè)人數(shù)據(jù),中國也在保護(hù)隱私方面完善了法律法規(guī)。我們時(shí)常能看到某公司因?yàn)橛脩魯?shù)據(jù)隱私不合規(guī)被處罰的新聞。

然而,沒有數(shù)據(jù),機(jī)器學(xué)習(xí)就如無米之炊。隨著研究的發(fā)展,機(jī)器學(xué)習(xí)的模型變得越來越強(qiáng),需要的訓(xùn)練數(shù)據(jù)也大大增加,比如,業(yè)界有些訓(xùn)練模型需要使用上百 G 的數(shù)據(jù)來訓(xùn)練數(shù)十億的參數(shù)。而在很多專業(yè)領(lǐng)域如醫(yī)療、金融防欺詐等,數(shù)據(jù)則因?yàn)殡[私或者利益被分割成孤島,使得機(jī)器學(xué)習(xí)面臨著有效數(shù)據(jù)不足的問題。因此,如果不能對數(shù)據(jù)隱私提供保證,那么信息流動(dòng)和機(jī)器學(xué)習(xí)也無法實(shí)現(xiàn)。

數(shù)據(jù)保護(hù)和機(jī)器學(xué)習(xí)似乎有著天然的矛盾, 因此,用戶和服務(wù)提供商都面臨的一個(gè)挑戰(zhàn)是如何在機(jī)器學(xué)習(xí)的框架里實(shí)現(xiàn)隱私保護(hù),取得隱私和效益的平衡。

隱私一詞在不同場景下指代的意義會(huì)有較大差別,在機(jī)器學(xué)習(xí)中亦是如此。接下來我們將分三節(jié)分別介紹不同層面的隱私保護(hù)(如圖1)。具體來說,第一部分陳述機(jī)密計(jì)算,討論如何實(shí)現(xiàn)機(jī)器學(xué)習(xí)中計(jì)算的機(jī)密性;第二部分陳述模型的隱私,差分隱私以及機(jī)器遺忘,討論如何減少機(jī)器學(xué)習(xí)模型對數(shù)據(jù)的泄露;第三部分陳述分布式機(jī)器學(xué)習(xí)的隱私,即聯(lián)邦學(xué)習(xí),討論在數(shù)據(jù)隔離分布式存儲(chǔ),如何利用機(jī)密計(jì)算和模型隱私的技術(shù)有效地進(jìn)行隱私保護(hù)的機(jī)器學(xué)習(xí)。

機(jī)器學(xué)習(xí)框架里不同層面的隱私保護(hù)

圖1:本文結(jié)構(gòu)示意圖

第一章 機(jī)密計(jì)算

(Confidential computing)

機(jī)密計(jì)算(confidential computing)是指數(shù)據(jù)的傳輸和計(jì)算過程是機(jī)密的(confidential)。當(dāng)前實(shí)現(xiàn)機(jī)密計(jì)算的方法有可信執(zhí)行環(huán)境(Trusted Executive Environment, TEE),同態(tài)加密(Homomorphic Encryption, HE)和多方安全計(jì)算(Multi-party Secure Computation, MPC)。

可信執(zhí)行環(huán)境(TEE)是處理器或虛擬系統(tǒng)上一個(gè)安全區(qū)域,可以保證在其中加載的數(shù)據(jù)和代碼的機(jī)密性和完整性。簡言之,TEE 可以被認(rèn)為是認(rèn)證用戶在云端的一塊飛地(enclave, 包括計(jì)算和存儲(chǔ)資源),雖然物理上在云端,但邏輯上只受認(rèn)證用戶管轄。數(shù)據(jù)和可信程序在云端加密存儲(chǔ),只有在加載到 TEE 后才會(huì)解密,計(jì)算,計(jì)算結(jié)果再加密存儲(chǔ)到云端。云端只負(fù)責(zé)提供可信的計(jì)算環(huán)境,對其中的計(jì)算無法干預(yù)。關(guān)于 TEE,硬件或者邏輯漏洞以及可擴(kuò)展性是現(xiàn)在研究的重點(diǎn)。

同態(tài)加密,是一種加密方法,可以在密文上計(jì)算而不需要密鑰,而且計(jì)算結(jié)果是機(jī)密的,需要使用密鑰才能解密成明文。一般地,同態(tài)加密算法僅實(shí)現(xiàn)了同態(tài)加法和同態(tài)乘法,因此需要把計(jì)算歸約成一個(gè)數(shù)域上的加法和乘法電路。例如為了實(shí)現(xiàn)在神經(jīng)網(wǎng)絡(luò)上的同態(tài)加密計(jì)算,需要對網(wǎng)絡(luò)做一些改動(dòng)使得其只包含加法乘法和多項(xiàng)式運(yùn)算操作:把 ReLU 換成多項(xiàng)式激活函數(shù),運(yùn)算使用定點(diǎn)數(shù)等,來自微軟研究院的 SEAL 項(xiàng)目[2]是目前比較流行的相關(guān)開源項(xiàng)目。但同態(tài)加密的實(shí)際應(yīng)用還面臨很大困難,由于它只能進(jìn)行加法和乘法操作,相比于明文運(yùn)算增加了相當(dāng)大的計(jì)算開銷,所以現(xiàn)在的技術(shù)大約只能擴(kuò)展到 MNIST 和 CIFAR 的推斷部分[3]。

多方安全計(jì)算是參與方以各自隱私數(shù)據(jù)為輸入共同計(jì)算一個(gè)函數(shù)值。在整個(gè)過程中,各參與方除了計(jì)算結(jié)果,對他方的隱私數(shù)據(jù)沒有額外的認(rèn)知。多方安全計(jì)算能夠同時(shí)確保輸入的機(jī)密性和計(jì)算的正確性,其思想本質(zhì)是輸入數(shù)據(jù)是計(jì)算結(jié)果的一種冗余表示,有(無窮)多種輸入樣例對應(yīng)相同的計(jì)算結(jié)果,因此引入隨機(jī)數(shù)來掩蓋這種冗余性從而實(shí)現(xiàn)機(jī)密計(jì)算。多方安全計(jì)算需要設(shè)計(jì)協(xié)議來實(shí)現(xiàn)加法和乘法操作,但它的瓶頸在于通信復(fù)雜度的提升[4],如廣泛應(yīng)用的 Beaver 協(xié)議對于每個(gè)乘法操作需要一輪通信開銷。

當(dāng)前開源項(xiàng)目 Facebook CrypTen [5]和 Openminded PySyft [6] 用 Python 實(shí)現(xiàn)了多方安全計(jì)算的協(xié)議,可以進(jìn)行如數(shù)據(jù)分離,數(shù)據(jù)模型分離等場景下的模型訓(xùn)練和推斷。當(dāng)前的研究熱點(diǎn)是如何設(shè)計(jì)協(xié)議,降低通信開銷,以及如何連接應(yīng)用場景和技術(shù)實(shí)現(xiàn)。

機(jī)器學(xué)習(xí)框架里不同層面的隱私保護(hù)

表1:機(jī)密計(jì)算技術(shù)特征

表1總結(jié)了三種機(jī)密計(jì)算技術(shù)的特征。機(jī)器學(xué)習(xí)研究者嘗試著把這些機(jī)密計(jì)算的技術(shù)和機(jī)器學(xué)習(xí)的過程結(jié)合實(shí)現(xiàn)對計(jì)算過程隱私的保護(hù),以及使用它們來降低模型差分隱私所需要的噪音[7]。

第二章 模型的隱私

(Model privacy)

機(jī)密計(jì)算可以做到在訓(xùn)練過程中保護(hù)數(shù)據(jù)的隱私。那么訓(xùn)練后的模型會(huì)造成隱私訓(xùn)練數(shù)據(jù)的泄露嗎?答案是可能的,因?yàn)闄C(jī)器學(xué)習(xí)的模型都會(huì)在一定程度上過擬合(泛化鴻溝),模型自身會(huì)記?。ú糠郑┯?xùn)練數(shù)據(jù),從而導(dǎo)致發(fā)布模型會(huì)造成隱私訓(xùn)練數(shù)據(jù)的泄露。一個(gè)例子是模型反向工程(model inversion, 從模型推斷訓(xùn)練數(shù)據(jù))[8] ,如圖2就是攻擊者只用姓名和人臉識(shí)別系統(tǒng)的黑盒(blackbox)訪問恢復(fù)出的訓(xùn)練集中的數(shù)據(jù)。另一個(gè)例子是成員推斷(membership inference),它推斷某個(gè)樣本是不是在訓(xùn)練集中,較高的成員推斷成功率顯示模型對訓(xùn)練數(shù)據(jù)的隱私有泄露[9]。

圖2:從人臉識(shí)別模型通過黑盒攻擊恢復(fù)出訓(xùn)練集中的數(shù)據(jù),其中左圖為攻擊推斷結(jié)果,右圖為真實(shí)圖像[8]

差分隱私(Differential Privacy, DP) 可以衡量和控制模型對訓(xùn)練數(shù)據(jù)的泄露。它從統(tǒng)計(jì)意義上刻畫了單個(gè)數(shù)據(jù)樣本對模型的影響。一個(gè)隨機(jī)算法 M 符合 (,δ)-DP 意味著對于任何兩個(gè)相鄰的數(shù)據(jù)集 S, S‘ 和任意事件 E 滿足

P(M(S)∈E))≤e^ P(M(S’ )∈E)+δ。 (1)

實(shí)現(xiàn)算法差分隱私的一種通用做法是加噪音。加噪音會(huì)帶來模型的性能損失,差分隱私機(jī)器學(xué)習(xí)(differential private machine learning) 就是研究如何更節(jié)省地加噪音,如何在給定隱私損失的要求下,加最少的噪音取得最好的性能。微軟和中山大學(xué)在這方面的論文介紹了相關(guān)的研究工作[10]。研究人員發(fā)現(xiàn)加入的噪音和優(yōu)化算法會(huì)相互影響:噪音會(huì)讓優(yōu)化算法避開最差曲率方向,優(yōu)化算法的收縮性可以弱化之前步驟加的噪音。他們在分析中利用這種相互影響,推導(dǎo)出了一個(gè)新的基于期望曲率的理論性能界,可以顯式地看出梯度擾動(dòng)比另外兩種擾動(dòng)方式(目標(biāo)擾動(dòng)和輸出擾動(dòng))的優(yōu)勢,并且給出了另外兩種擾動(dòng)無法利用這種相互影響的原因。據(jù)此,梯度擾動(dòng)是一種實(shí)現(xiàn)差分隱私機(jī)器學(xué)習(xí)的有效算法。

從2006年差分隱私被提出以來,隱私的度量也一直是這個(gè)領(lǐng)域很基礎(chǔ)的一個(gè)問題,期間提出的概念包括 -DP、(,δ)-DP、Renyi-DP、(Truncated) Concentrated DP 等。隱私度量,顧名思義是要度量一個(gè)算法的隱私損失。(,δ)-DP 可以按照公式計(jì)算出一次統(tǒng)計(jì)查詢對應(yīng)的隱私損失 (,δ)。通常一個(gè)復(fù)雜算法可以看成多次統(tǒng)計(jì)查詢的復(fù)合(composition)和采樣(sampling) ,因此分析一個(gè)復(fù)雜算法的隱私損失需要計(jì)算復(fù)合和采樣兩種操作的隱私損失。2019年[11]提出的高斯差分隱私(gaussian differential privacy)對采樣和復(fù)合都給出了一個(gè)緊估計(jì),在隱私損失的統(tǒng)計(jì)上比之前的 moments accountant 技術(shù)更精準(zhǔn),從而在相同隱私預(yù)算下要加的噪音更小,取得的性能更好。

最近,另一個(gè)模型隱私的研究熱點(diǎn)是模型遺忘(machine unlearning)。如果把實(shí)現(xiàn)差分隱私看成主動(dòng)設(shè)計(jì)算法使得輸出模型滿足隱私要求,那么模型遺忘是一種被動(dòng)解決模型隱私的方法。它旨在機(jī)器學(xué)習(xí)模型中實(shí)現(xiàn)用戶的“被遺忘權(quán)利(the right to be forgotten)”。模型遺忘最直觀的做法是在刪除指定數(shù)據(jù)后的訓(xùn)練集上重新訓(xùn)練(retraining)這種做法的計(jì)算代價(jià)非常大,因此模型遺忘工作的主要目標(biāo)是降低計(jì)算代價(jià),一類方法是對訓(xùn)練好的模型進(jìn)行后處理,使得模型遺忘算法的結(jié)果跟重新訓(xùn)練得到的模型是統(tǒng)計(jì)意義上近似不可區(qū)分的[12,13];另外一類方法是設(shè)計(jì)新的訓(xùn)練方法,降低重新訓(xùn)練的代價(jià),這類方法通常將數(shù)據(jù)分成不同塊, 每塊數(shù)據(jù)單獨(dú)訓(xùn)練一個(gè)子模型, 并匯總子模型的結(jié)果,這樣刪除一個(gè)數(shù)據(jù)點(diǎn)只需要重新訓(xùn)練一個(gè)子模型[14,15]。

第三章 聯(lián)邦學(xué)習(xí)

(Federated learning)

聯(lián)邦學(xué)習(xí)(federated learning)的愿景是在不共享數(shù)據(jù)的情形下進(jìn)行多方聯(lián)合機(jī)器學(xué)習(xí),本質(zhì)上是一種數(shù)據(jù)訪問受限的分布式機(jī)器學(xué)習(xí)框架。

相比于經(jīng)典的分布式機(jī)器學(xué)習(xí),聯(lián)邦學(xué)習(xí)的第一層受限是數(shù)據(jù)隔離——數(shù)據(jù)在各個(gè)終端不共享,不均衡,交互通信要盡量少。微軟和 CMU 合作的論文介紹了這方面的工作[16]。研究人員分析了在數(shù)據(jù)隔離的限制下一類分布式方差縮減算法(Variance Reduced Methods, i.e.,SVRG,SARAPH,MIG)的理論性能。在最自然的分布式設(shè)置下(終端節(jié)點(diǎn)運(yùn)算內(nèi)循環(huán),參數(shù)服務(wù)器運(yùn)算外循環(huán))取得線性收斂性(強(qiáng)凸目標(biāo)函數(shù)),并且算法的時(shí)間復(fù)雜度對條件數(shù)的依賴取得目前理論上的最好結(jié)果。分布式方差縮減算法相比于分布式梯度下降,顯著降低了通信開銷并利于保護(hù)隱私。

在分析中,研究人員引入了 restricted smoothness 衡量本地目標(biāo)函數(shù)和全局目標(biāo)函數(shù)之差的平滑性,結(jié)果顯示 restricted smoothness 決定了算法的收斂性。并且當(dāng)數(shù)據(jù)不平衡,restricted smoothness 較差時(shí),引入差異正則項(xiàng),保證算法可以收斂。表2列舉了各個(gè)分布式算法的通信和計(jì)算復(fù)雜度比較(*標(biāo)識(shí)文中的算法),可以看出文中的分析對最自然的分布式方差縮減算法給出了最優(yōu)的結(jié)果。

機(jī)器學(xué)習(xí)框架里不同層面的隱私保護(hù)

表 2:分布式算法通信和計(jì)算復(fù)雜度比較

聯(lián)邦學(xué)習(xí)的第二層受限是隱私保護(hù)。直覺上,只共享參數(shù)更新而不共享原始數(shù)據(jù)可以在一定程度上保護(hù)原始數(shù)據(jù)的隱私。不過,論文[17]指出在深度模型中共享單個(gè)樣本的梯度可以泄露原始數(shù)據(jù)。他們提出梯度匹配(gradient matching)算法,利用給定輸入在模型上的梯度可以相當(dāng)準(zhǔn)確地恢復(fù)出原始數(shù)據(jù)的輸入和標(biāo)簽。圖3展示了梯度匹配在 MNIST、SVHN、CIFAR、LFW 數(shù)據(jù)集上恢復(fù)輸入的例子。

雖然在復(fù)合多個(gè)樣本點(diǎn)的梯度時(shí),梯度匹配算法會(huì)失效,但這篇文章仍然展示了梯度對原始數(shù)據(jù)的暴露。通常,聯(lián)邦學(xué)習(xí)的算法會(huì)使用前面介紹的機(jī)密計(jì)算的工具(同態(tài)加密或多方安全計(jì)算)來實(shí)現(xiàn)可證明的隱私保護(hù)[18,19],只是這些機(jī)密計(jì)算的方法會(huì)帶來很大額外的計(jì)算和通信開銷。

圖3:攻擊者從共享的梯度中恢復(fù)出原始數(shù)據(jù),從上到下分別是 MNIST、CIFAR100、SVHN、LFW [17]

相比于同態(tài)加密完全在密文域?qū)W習(xí)和運(yùn)算,是否存在一種數(shù)據(jù)弱加密方法,使得模型可以直接在其上訓(xùn)練、推斷同時(shí)還能擁有一定的隱私保證呢?最近的工作 InstaHide[20],就利用 mixup[21] 和隨機(jī)反轉(zhuǎn)對原始圖片弱加密。弱加密后的圖片視覺上看不出原始圖片的信息,但深度神經(jīng)網(wǎng)絡(luò)仍然可以直接在其上訓(xùn)練推斷,取得了相當(dāng)好的性能表現(xiàn)。此外,該工作還展示了這種弱加密算法可以抵抗多種攻擊方法。不過值得指出的是這種弱加密還沒有計(jì)算復(fù)雜性的理論,不能保證一定可以防住攻擊。

隱私保護(hù)與人們的生活息息相關(guān),在實(shí)踐和理論上也是挑戰(zhàn)和機(jī)遇并存。我們期待與更多同仁一起努力,推動(dòng)隱私保護(hù)領(lǐng)域的發(fā)展。
責(zé)編AJX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1805

    文章

    48898

    瀏覽量

    247844
  • 隱私保護(hù)
    +關(guān)注

    關(guān)注

    0

    文章

    300

    瀏覽量

    16719
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8499

    瀏覽量

    134315
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度自然匿名化:隱私保護(hù)與視覺完整性并存的未來!

    在科技快速發(fā)展的當(dāng)下,個(gè)人隱私保護(hù)的需求日益凸顯。如何能在隱私保護(hù)的基礎(chǔ)上,保持視覺完整性,從而推動(dòng)企業(yè)開發(fā)與創(chuàng)新? 深度自然匿名化(DNAT)已被證明是傳統(tǒng)模糊化方法的更優(yōu)替代方案,
    的頭像 發(fā)表于 01-15 15:57 ?4452次閱讀
    深度自然匿名化:<b class='flag-5'>隱私</b><b class='flag-5'>保護(hù)</b>與視覺完整性并存的未來!

    《具身智能機(jī)器人系統(tǒng)》第10-13章閱讀心得之具身智能機(jī)器人計(jì)算挑戰(zhàn)

    了完整的安全防護(hù)體系。 第12章將可靠性問題分為兩大類:機(jī)器人本體的可靠性和計(jì)算系統(tǒng)的可靠性。本體可靠性涉及溫度、碰撞、斷電、輻射等物理環(huán)境因素。計(jì)算系統(tǒng)可靠性則關(guān)注硬件故障、軟件錯(cuò)誤等技術(shù)層面的挑戰(zhàn)
    發(fā)表于 01-04 01:15

    人工智能工程師高頻面試題匯總——機(jī)器學(xué)習(xí)

    ,或者深度學(xué)習(xí)框架,還有怎么優(yōu)化模型,這些都是加分項(xiàng),能有效提高面試通過率。本篇小編整理了一些高頻的機(jī)器學(xué)習(xí)面的面試題,這些題目都是從實(shí)
    的頭像 發(fā)表于 12-04 17:00 ?1449次閱讀
    人工智能工程師高頻面試題匯總——<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>篇

    隱私與安全:動(dòng)態(tài)海外住宅IP如何保護(hù)你在線

    動(dòng)態(tài)海外住宅IP在保護(hù)用戶在線隱私與安全方面發(fā)揮著重要作用。
    的頭像 發(fā)表于 11-25 08:09 ?377次閱讀

    Arm成功將Arm KleidiAI軟件庫集成到騰訊自研的Angel 機(jī)器學(xué)習(xí)框架

    Arm 與騰訊攜手合作,成功將 Arm KleidiAI 軟件庫集成到騰訊自研的 Angel 機(jī)器學(xué)習(xí)框架。 ? 借助 KleidiAI 解鎖卓越性能、能效和可移植性,騰訊混元大模型能夠?qū)崿F(xiàn)更快
    的頭像 發(fā)表于 11-24 15:33 ?1228次閱讀

    比亞迪獲得國家首批汽車隱私保護(hù)標(biāo)識(shí)

    近日,在2024中國汽車軟件大會(huì)上,中國汽車工業(yè)協(xié)會(huì)與中國網(wǎng)絡(luò)安全產(chǎn)業(yè)聯(lián)盟汽車網(wǎng)絡(luò)安全工作委員會(huì)聯(lián)合頒發(fā)“汽車隱私保護(hù)”標(biāo)識(shí)證書,比亞迪成為首批通過測評并獲得“汽車隱私保護(hù)”標(biāo)識(shí)授權(quán)的
    的頭像 發(fā)表于 11-18 16:14 ?620次閱讀

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    緊密。 NPU的起源與特點(diǎn) NPU的概念最早由谷歌在其TPU(Tensor Processing Unit)項(xiàng)目中提出,旨在為TensorFlow框架提供專用的硬件加速。NPU的設(shè)計(jì)目標(biāo)是提高機(jī)器學(xué)習(xí)算法的運(yùn)行效率,特別是在處理
    的頭像 發(fā)表于 11-15 09:19 ?1141次閱讀

    RISC-V如何支持不同的AI和機(jī)器學(xué)習(xí)框架和庫?

    RISC-V如何支持不同的AI和機(jī)器學(xué)習(xí)框架和庫?還請壇友們多多指教一下。
    發(fā)表于 10-10 22:24

    IP地址安全與隱私保護(hù)

    在當(dāng)今數(shù)字化時(shí)代,IP地址作為網(wǎng)絡(luò)設(shè)備的唯一身份標(biāo)識(shí),在網(wǎng)絡(luò)安全與隱私保護(hù)中扮演著至關(guān)重要的角色。然而,隨著網(wǎng)絡(luò)技術(shù)的飛速發(fā)展,IP地址也面臨著諸多挑戰(zhàn),對用戶的隱私和網(wǎng)絡(luò)安全構(gòu)成了潛在威脅。本文
    的頭像 發(fā)表于 09-03 15:59 ?1049次閱讀

    【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 時(shí)間序列的信息提取

    提高機(jī)器學(xué)習(xí)模型效果與性能的過程。 而我對特征工程的理解就是從一堆數(shù)據(jù)找出能表示這堆數(shù)據(jù)的最小數(shù)據(jù)集,而這個(gè)找出特征數(shù)據(jù)的過程就是信息提取。 隨后給出了一系列定義,包括特征的最小最大縮放、特征的標(biāo)準(zhǔn)化
    發(fā)表于 08-14 18:00

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時(shí)間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時(shí)間序列分析的基礎(chǔ)知識(shí),更巧妙地展示了機(jī)器
    發(fā)表于 08-12 11:21

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1079次閱讀

    平衡創(chuàng)新與倫理:AI時(shí)代的隱私保護(hù)和算法公平

    成了一把雙刃劍,其銳利的一面正逐漸指向我們的核心價(jià)值。面對這些挑戰(zhàn),制定一套有效的AI治理框架隱私保護(hù)機(jī)制變得迫在眉睫。 確保AI決策的透明度是解決這些問題的關(guān)鍵一步。透明度不僅要求公開算法的運(yùn)作
    發(fā)表于 07-16 15:07

    如何理解機(jī)器學(xué)習(xí)中的訓(xùn)練集、驗(yàn)證集和測試集

    理解機(jī)器學(xué)習(xí)中的訓(xùn)練集、驗(yàn)證集和測試集,是掌握機(jī)器學(xué)習(xí)核心概念和流程的重要一步。這三者不僅構(gòu)成了模型學(xué)習(xí)與評估的基礎(chǔ)
    的頭像 發(fā)表于 07-10 15:45 ?6648次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,在過去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過程中,深度學(xué)習(xí)框架扮演著至關(guān)重要的角色。TensorFlow和PyTorch是目前最受
    的頭像 發(fā)表于 07-02 14:04 ?1607次閱讀