一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PyTorch教程-2.6. 概率統(tǒng)計

jf_pJlTbmA9 ? 來源:PyTorch ? 作者:PyTorch ? 2023-06-05 15:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

不管怎樣,機(jī)器學(xué)習(xí)都是關(guān)于不確定性的。在監(jiān)督學(xué)習(xí)中,我們希望在給定已知事物(特征)的情況下預(yù)測未知事物(目標(biāo))。根據(jù)我們的目標(biāo),我們可能會嘗試預(yù)測目標(biāo)的最可能值。或者我們可以預(yù)測與目標(biāo)的預(yù)期距離最小的值。有時我們不僅希望預(yù)測特定值,而且希望量化我們的不確定性。例如,給定一些描述患者的特征,我們可能想知道有多大可能他們將在明年心臟病發(fā)作。在無監(jiān)督學(xué)習(xí)中,我們經(jīng)常關(guān)心不確定性。要確定一組測量值是否異常,了解一個人在感興趣的總體中觀察值的可能性有多大是有幫助的。此外,在強(qiáng)化學(xué)習(xí)中,我們希望開發(fā)能夠在各種環(huán)境中智能行動的智能體。這需要推理環(huán)境可能會如何變化,以及人們可能期望在響應(yīng)每個可用操作時遇到什么獎勵。

概率是與不確定性推理有關(guān)的數(shù)學(xué)領(lǐng)域。給定某個過程的概率模型,我們可以推斷各種事件的可能性。使用概率來描述可重復(fù)事件(如拋硬幣)的頻率是相當(dāng)沒有爭議的。事實(shí)上,頻率論學(xué)者堅持只適用于此類可重復(fù)事件的概率解釋。相比之下,貝葉斯學(xué)者更廣泛地使用概率語言來形式化我們在不確定性下的推理。貝葉斯概率具有兩個獨(dú)特的特征:(i) 將置信度分配給不可重復(fù)的事件,例如,概率是 多少月亮是奶酪做的?(ii) 主觀性——雖然貝葉斯概率為人們應(yīng)該如何根據(jù)新證據(jù)更新他們的信念提供了明確的規(guī)則,但它允許不同的個體以不同的先驗(yàn)信念開始。 統(tǒng)計數(shù)據(jù)幫助我們向后推理,從收集和組織數(shù)據(jù)開始,然后退回到我們可能對生成數(shù)據(jù)的過程得出的推論。每當(dāng)我們分析數(shù)據(jù)集,尋找我們希望可以表征更廣泛人群的模式時,我們都在運(yùn)用統(tǒng)計思維。大多數(shù)課程、專業(yè)、論文、職業(yè)、部門、公司和機(jī)構(gòu)都致力于研究概率和統(tǒng)計。雖然本節(jié)僅涉及表面,但我們將為您提供開始構(gòu)建模型所需的基礎(chǔ)。

%matplotlib inline
import random
import torch
from torch.distributions.multinomial import Multinomial
from d2l import torch as d2l

%matplotlib inline
import random
from mxnet import np, npx
from mxnet.numpy.random import multinomial
from d2l import mxnet as d2l

npx.set_np()

%matplotlib inline
import random
import jax
import numpy as np
from jax import numpy as jnp
from d2l import jax as d2l

No GPU/TPU found, falling back to CPU. (Set TF_CPP_MIN_LOG_LEVEL=0 and rerun for more info.)

%matplotlib inline
import random
import tensorflow as tf
from tensorflow_probability import distributions as tfd
from d2l import tensorflow as d2l

2.6.1. 一個簡單的例子:拋硬幣

想象一下,我們計劃拋硬幣并想要量化我們看到正面(與反面)的可能性有多大。如果硬幣是公平的,那么兩種結(jié)果(正面和反面)的可能性都相同。此外,如果我們打算拋硬幣n次,那么我們期望看到的正面部分應(yīng)該與預(yù)期的反面部分完全匹配。一種直觀的方式是通過對稱性來看待這一點(diǎn):對于每一個可能的結(jié)果nh 頭和nt=(n?nh)尾巴,有一個同樣可能的結(jié)果nt頭和nh尾巴。請注意,這只有在我們平均期望看到的情況下才有可能1/2拋出頭和1/2出現(xiàn)尾巴。當(dāng)然,如果你多次進(jìn)行這個實(shí)驗(yàn)n=1000000拋擲每一個,你可能永遠(yuǎn)看不到試驗(yàn)在哪里nh=nt確切地。

形式上,數(shù)量1/2被稱為概率,在這里它捕捉到任何給定的拋擲都會出現(xiàn)正面的確定性。概率在之間分配分?jǐn)?shù)0和1到感興趣的結(jié)果,稱為事件。這里感興趣的事件是 heads我們表示相應(yīng)的概率 P(heads). 的概率1表示絕對確定性(想象一個雙面都是正面的騙局硬幣)和概率0表示不可能(例如,如果兩邊都是反面)。頻率nh/n和nt/n不是概率而是統(tǒng)計。概率是 數(shù)據(jù)生成過程的理論量。在這里,概率1/2是硬幣本身的屬性。相比之下,統(tǒng)計數(shù)據(jù)是作為觀察數(shù)據(jù)的函數(shù)計算的經(jīng)驗(yàn)量。我們對概率和統(tǒng)計量的興趣密不可分。我們經(jīng)常設(shè)計稱為估計器的特殊統(tǒng)計數(shù)據(jù),在給定數(shù)據(jù)集的情況下,它會產(chǎn)生 模型參數(shù)(如概率)的估計值。此外,當(dāng)這些估計量滿足稱為一致性的良好屬性時,我們的估計將收斂到相應(yīng)的概率。反過來,這些推斷的概率說明了我們將來可能遇到的來自同一人群的數(shù)據(jù)的可能統(tǒng)計特性。

假設(shè)我們偶然發(fā)現(xiàn)了一枚真實(shí)的硬幣,但我們并不知道它的真實(shí)價值P(heads). 要用統(tǒng)計方法調(diào)查這個數(shù)量,我們需要(i)收集一些數(shù)據(jù);(ii) 設(shè)計一個估算器。這里的數(shù)據(jù)采集很容易;我們可以多次拋硬幣并記錄所有結(jié)果。形式上,從一些底層隨機(jī)過程中繪制實(shí)現(xiàn)稱為采樣。正如您可能已經(jīng)猜到的那樣,一種自然的估計量是觀察到的正面朝上數(shù)與拋擲總次數(shù)之間的分?jǐn)?shù)。

現(xiàn)在,假設(shè)硬幣實(shí)際上是公平的,即 P(heads)=0.5. 為了模擬公平硬幣的拋擲,我們可以調(diào)用任何隨機(jī)數(shù)生成器。以概率抽取事件樣本的一些簡單方法0.5. 例如 Python random.random在區(qū)間內(nèi)產(chǎn)生數(shù)字[0,1]其中躺在任何子區(qū)間的概率[a,b]?[0,1]等于b?a. 因此我們可以通過0測試返回的1浮點(diǎn)數(shù)0.5是否大于0.5

num_tosses = 100
heads = sum([random.random() > 0.5 for _ in range(100)])
tails = num_tosses - heads
print("heads, tails: ", [heads, tails])

heads, tails: [48, 52]

num_tosses = 100
heads = sum([random.random() > 0.5 for _ in range(100)])
tails = num_tosses - heads
print("heads, tails: ", [heads, tails])

heads, tails: [47, 53]

num_tosses = 100
heads = sum([random.random() > 0.5 for _ in range(100)])
tails = num_tosses - heads
print("heads, tails: ", [heads, tails])

heads, tails: [44, 56]

num_tosses = 100
heads = sum([random.random() > 0.5 for _ in range(100)])
tails = num_tosses - heads
print("heads, tails: ", [heads, tails])

heads, tails: [49, 51]

更一般地,我們可以通過調(diào)用多項(xiàng)式函數(shù),將第一個參數(shù)設(shè)置為抽獎次數(shù),將第二個參數(shù)設(shè)置為與每個可能結(jié)果相關(guān)的概率列表。為了模擬公平硬幣的十次拋擲,我們分配概率向量,將索引 0 解釋為正面,將索引 1 解釋為反面。該函數(shù)返回一個長度等于可能結(jié)果數(shù)(此處為 2)的向量,其中第一個分量告訴我們正面出現(xiàn)的次數(shù),第二個分量告訴我們反面出現(xiàn)的次數(shù)。[0.5, 0.5]

fair_probs = torch.tensor([0.5, 0.5])
Multinomial(100, fair_probs).sample()

tensor([44., 56.])

fair_probs = [0.5, 0.5]
multinomial(100, fair_probs)

array([46, 54], dtype=int64)

fair_probs = [0.5, 0.5]
# jax.random does not have multinomial distribution implemented
np.random.multinomial(100, fair_probs)

array([46, 54])

fair_probs = tf.ones(2) / 2
tfd.Multinomial(100, fair_probs).sample()


每次運(yùn)行此采樣過程時,您都會收到一個新的隨機(jī)值,該值可能與之前的結(jié)果不同。除以投擲次數(shù)即可得出數(shù)據(jù)中每種結(jié)果出現(xiàn)的頻率。請注意,這些頻率,就像它們要估計的概率一樣,總和為1.

Multinomial(100, fair_probs).sample() / 100

tensor([0.5300, 0.4700])

multinomial(100, fair_probs) / 100

array([0.53, 0.47])

np.random.multinomial(100, fair_probs) / 100

array([0.5, 0.5])

tfd.Multinomial(100, fair_probs).sample() / 100


在這里,即使我們的模擬硬幣是公平的(我們 自己設(shè)置概率),正面和反面的計數(shù)可能并不相同。那是因?yàn)槲覀冎怀槿×擞邢迶?shù)量的樣本。如果我們自己不進(jìn)行模擬,而只看到結(jié)果,我們怎么知道硬幣是否有輕微的不公平,或者是否可能偏離[0.5, 0.5]1/2只是小樣本的產(chǎn)物?讓我們看看模擬10000投擲時會發(fā)生什么。

counts = Multinomial(10000, fair_probs).sample()
counts / 10000

tensor([0.4970, 0.5030])

counts = multinomial(10000, fair_probs).astype(np.float32)
counts / 10000

array([0.4952, 0.5048])

counts = np.random.multinomial(10000, fair_probs).astype(np.float32)
counts / 10000

array([0.5009, 0.4991], dtype=float32)

counts = tfd.Multinomial(10000, fair_probs).sample()
counts / 10000


一般來說,對于重復(fù)事件(如拋硬幣)的平均值,隨著重復(fù)次數(shù)的增加,我們的估計肯定會收斂到真實(shí)的潛在概率。這種現(xiàn)象的數(shù)學(xué)證明稱為大數(shù)定律和中心極限定理告訴我們,在許多情況下,隨著樣本量的增加n 增長,這些錯誤應(yīng)該以(1/n). 讓我們通過研究隨著拋擲次數(shù)從1增加到10000.

counts = Multinomial(1, fair_probs).sample((10000,))
cum_counts = counts.cumsum(dim=0)
estimates = cum_counts / cum_counts.sum(dim=1, keepdims=True)
estimates = estimates.numpy()

d2l.set_figsize((4.5, 3.5))
d2l.plt.plot(estimates[:, 0], label=("P(coin=heads)"))
d2l.plt.plot(estimates[:, 1], label=("P(coin=tails)"))
d2l.plt.axhline(y=0.5, color='black', linestyle='dashed')
d2l.plt.gca().set_xlabel('Samples')
d2l.plt.gca().set_ylabel('Estimated probability')
d2l.plt.legend();

poYBAGR5UIOAbs_vAAKPA3Q1P2c019.svg

counts = multinomial(1, fair_probs, size=10000)
cum_counts = counts.astype(np.float32).cumsum(axis=0)
estimates = cum_counts / cum_counts.sum(axis=1, keepdims=True)

d2l.set_figsize((4.5, 3.5))
d2l.plt.plot(estimates[:, 0], label=("P(coin=heads)"))
d2l.plt.plot(estimates[:, 1], label=("P(coin=tails)"))
d2l.plt.axhline(y=0.5, color='black', linestyle='dashed')
d2l.plt.gca().set_xlabel('Samples')
d2l.plt.gca().set_ylabel('Estimated probability')
d2l.plt.legend();

pYYBAGR5UIaAFy6EAAKKn4g7Fek810.svg

counts = np.random.multinomial(1, fair_probs, size=10000).astype(np.float32)
cum_counts = counts.cumsum(axis=0)
estimates = cum_counts / cum_counts.sum(axis=1, keepdims=True)

d2l.set_figsize((4.5, 3.5))
d2l.plt.plot(estimates[:, 0], label=("P(coin=heads)"))
d2l.plt.plot(estimates[:, 1], label=("P(coin=tails)"))
d2l.plt.axhline(y=0.5, color='black', linestyle='dashed')
d2l.plt.gca().set_xlabel('Samples')
d2l.plt.gca().set_ylabel('Estimated probability')
d2l.plt.legend();

poYBAGR5UImAYH0TAAKRX1xytN4227.svg

counts = tfd.Multinomial(1, fair_probs).sample(10000)
cum_counts = tf.cumsum(counts, axis=0)
estimates = cum_counts / tf.reduce_sum(cum_counts, axis=1, keepdims=True)
estimates = estimates.numpy()

d2l.set_figsize((4.5, 3.5))
d2l.plt.plot(estimates[:, 0], label=("P(coin=heads)"))
d2l.plt.plot(estimates[:, 1], label=("P(coin=tails)"))
d2l.plt.axhline(y=0.5, color='black', linestyle='dashed')
d2l.plt.gca().set_xlabel('Samples')
d2l.plt.gca().set_ylabel('Estimated probability')
d2l.plt.legend();

pYYBAGR5UIuADUurAAKHf032V-4693.svg

每條實(shí)線對應(yīng)于硬幣的兩個值之一,并給出了我們估計的概率,即在每組實(shí)驗(yàn)后硬幣出現(xiàn)該值的概率。黑色虛線給出了真實(shí)的潛在概率。隨著我們通過進(jìn)行更多實(shí)驗(yàn)獲得更多數(shù)據(jù),曲線會向真實(shí)概率收斂。您可能已經(jīng)開始看到一些困擾統(tǒng)計學(xué)家的更高級問題的形狀:這種收斂發(fā)生的速度有多快?如果我們已經(jīng)測試了同一家工廠生產(chǎn)的許多硬幣,我們?nèi)绾握线@些信息?

2.6.2. 更正式的待遇

我們已經(jīng)走得很遠(yuǎn)了:提出概率模型、生成合成數(shù)據(jù)、運(yùn)行統(tǒng)計估計器、憑經(jīng)驗(yàn)評估收斂性以及報告錯誤指標(biāo)(檢查偏差)。然而,為了走得更遠(yuǎn),我們需要更加精確。

在處理隨機(jī)性時,我們表示一組可能的結(jié)果 S并將其稱為樣本空間或結(jié)果空間。在這里,每個元素都是一個不同的可能結(jié)果。在滾動單個硬幣的情況下, S={heads,tails}. 對于單個模具,S={1,2,3,4,5,6}. 擲兩枚硬幣時,可能的結(jié)果是 {(heads,heads),(heads,tails),(tails,heads),(tails,tails)}. 事件是樣本空間的子集。例如,事件“第一次拋硬幣正面朝上”對應(yīng)于集合 {(heads,heads),(heads,tails)}. 每當(dāng)結(jié)果z隨機(jī)實(shí)驗(yàn)滿足 z∈A, 然后是事件A已經(jīng)發(fā)生了。對于單次擲骰子,我們可以定義事件“看到一個 5”(A={5}) 和“看到一個奇數(shù)” (B={1,3,5}). 在這種情況下,如果骰子出現(xiàn) 5,我們會說兩者A和B發(fā)生。另一方面,如果z=3, 然后A沒有發(fā)生但是 B做過。

概率函數(shù)將事件映射到實(shí)際值 P:A?S→[0,1]. 事件的概率A在給定的樣本空間 S, 表示P(A),滿足以下屬性:

任何事件的概率A是一個非負(fù)實(shí)數(shù),即P(A)≥0;

整個樣本空間的概率為1, IE, P(S)=1;

對于任何可數(shù)的事件序列 A1,A2,…是互斥的(Ai∩Aj=?對全部i≠j),其中任何一個發(fā)生的概率等于它們各自概率的總和,即 P(?i=1∞Ai)=∑i=1∞P(Ai).

這些概率論公理由Kolmogorov ( 1933 )提出 ,可用于快速推導(dǎo)出許多重要結(jié)果。例如,緊隨其后的是任何事件的概率A 或其補(bǔ)充 A′occurring 為 1(因?yàn)?A∪A′=S). 我們也可以證明P(?)=0因?yàn)?1=P(S∪S′)=P(S∪?)=P(S)+P(?)=1+P(?). 因此,任何事件的概率A 及其補(bǔ)充A′同時發(fā)生的是 P(A∩A′)=0. 通俗地說,這告訴我們不可能事件發(fā)生的概率為零。

2.6.3. 隨機(jī)變量

當(dāng)我們談?wù)撝T如擲骰子出現(xiàn)賠率或第一次拋硬幣出現(xiàn)正面等事件時,我們正在調(diào)用隨機(jī)變量的概念。形式上,隨機(jī)變量是從基礎(chǔ)樣本空間到一組(可能很多)值的映射。您可能想知道隨機(jī)變量與樣本空間有何不同,因?yàn)閮烧叨际墙Y(jié)果的集合。重要的是,隨機(jī)變量可能比原始樣本空間粗糙得多。我們可以定義一個二進(jìn)制隨機(jī)變量,如“大于 0.5”,即使基礎(chǔ)樣本空間是無限的,例如,線段之間0和1. 此外,多個隨機(jī)變量可以共享相同的底層樣本空間。例如,“我家的警報是否響起”和“我的房子是否被盜”都是共享基礎(chǔ)樣本空間的二元隨機(jī)變量。因此,知道一個隨機(jī)變量取的值可以告訴我們一些關(guān)于另一個隨機(jī)變量的可能值的信息。知道警報響了,我們可能會懷疑房子可能被盜了。

隨機(jī)變量取的每個值都對應(yīng)于基礎(chǔ)樣本空間的一個子集。因此出現(xiàn)隨機(jī)變量 X取值v, 表示為X=v, 是一個事件 并且P(X=v)表示它的概率。有時這種符號會變得笨拙,當(dāng)上下文清晰時我們可能會濫用符號。例如,我們可能會使用P(X)泛指 分布_X,即告訴我們概率的函數(shù)X取任何給定值。其他時候我們寫這樣的表達(dá)式P(X,Y)=P(X)P(Y),作為表達(dá)對隨機(jī)變量的所有值都成立的陳述的簡寫 X和Y可以采取,即,對于所有i,j它認(rèn)為P(X=iandY=j)=P(X=i)P(Y=j). 其他時候,我們通過寫作濫用符號P(v)當(dāng)隨機(jī)變量從上下文中明確時。由于概率論中的事件是樣本空間的一組結(jié)果,我們可以指定隨機(jī)變量取值的范圍。例如,P(1≤X≤3)表示事件的概率{1≤X≤3}.

請注意,離散隨機(jī)變量(如擲硬幣或擲骰子)與連續(xù)隨機(jī)變量之間存在細(xì)微差別 那些,比如從人群中隨機(jī)抽取的一個人的體重和身高。在這種情況下,我們很少真正關(guān)心某人的確切身高。此外,如果我們進(jìn)行足夠精確的測量,我們會發(fā)現(xiàn)地球上沒有兩個人的身高完全相同。事實(shí)上,通過足夠精細(xì)的測量,您醒來和入睡時的身高永遠(yuǎn)不會相同。詢問某人身高 1.801392782910287192 米的確切概率毫無意義。相反,我們通常更關(guān)心能夠說出某人的身高是否落在給定的區(qū)間內(nèi),比如 1.79 到 1.81 米之間。在這些情況下,我們使用概率密度. 恰好 1.80 米的高度沒有概率,但密度非零。為了得到分配給一個區(qū)間的概率,我們必須 對該區(qū)間的密度進(jìn)行積分。

2.6.4. 多個隨機(jī)變量

你可能已經(jīng)注意到,我們甚至不能通過最后一節(jié)而不做涉及多個隨機(jī)變量之間相互作用的陳述(回想一下P(X,Y)=P(X)P(Y)). 大多數(shù)機(jī)器學(xué)習(xí)都與這種關(guān)系有關(guān)。在這里,樣本空間將是感興趣的人群,例如與企業(yè)進(jìn)行交易的客戶、互聯(lián)網(wǎng)上的照片或生物學(xué)家已知的蛋白質(zhì)。每個隨機(jī)變量將代表不同屬性的(未知)值。每當(dāng)我們從總體中抽取一個個體時,我們都會觀察到每個隨機(jī)變量的實(shí)現(xiàn)。因?yàn)殡S機(jī)變量取的值對應(yīng)于可能重疊、部分重疊或完全不相交的樣本空間子集,所以了解一個隨機(jī)變量取的值可以使我們更新我們對另一個隨機(jī)變量的可能取值的信念. 如果一個病人走進(jìn)醫(yī)院,我們觀察到他們呼吸困難并且失去了嗅覺,

當(dāng)處理多個隨機(jī)變量時,我們可以構(gòu)建對應(yīng)于變量可以共同取值的每種組合的事件。為每個組合分配概率的概率函數(shù)(例如A=a和B=b) 稱為聯(lián)合概率函數(shù),它簡單地返回分配給樣本空間相應(yīng)子集的交集的概率。分配給隨機(jī)變量的事件的聯(lián)合概率A和B取值a和b,分別表示為P(A=a,B=b), 其中逗號表示“和”。請注意,對于任何值a和b, 它認(rèn)為P(A=a,B=b)≤P(A=a)和 P(A=a,B=b)≤P(B=b), 因此A=a和B=b 即將發(fā)生,A=a必須發(fā)生并且 B=b也必須發(fā)生。有趣的是,聯(lián)合概率告訴我們所有我們可以從概率意義上了解這些隨機(jī)變量,并且可以用來推導(dǎo)出許多其他有用的量,包括恢復(fù)個體分布P(A)和P(B). 恢復(fù) P(A=a)我們簡單總結(jié)一下P(A=a,B=v)在所有值 v隨機(jī)變量B可以采?。?P(A=a)=∑vP(A=a,B=v).

比例P(A=a,B=b)P(A=a)≤1事實(shí)證明非常重要。它被稱為條件概率,并通過“∣“ 象征, P(B=b∣A=a)=P(A=a,B=b)/P(A=a). 它告訴我們與事件相關(guān)的新概率B=b,一旦我們以事實(shí)為條件A=a發(fā)生。我們可以將此條件概率視為僅將注意力限制在與相關(guān)聯(lián)的樣本空間子集上A=a然后重新歸一化,使所有概率總和為 1。條件概率實(shí)際上是概率,因此遵守所有公理,只要我們以同一事件為條件所有條件,從而將注意力限制在同一樣本空間。例如,對于不相交的事件B 和B′, 我們有 P(B∪B′∣A=a)=P(B∣A=a)+P(B′∣A=a).

使用條件概率的定義,我們可以推導(dǎo)出著名的貝葉斯定理。通過構(gòu)造,我們有 P(A,B)=P(B∣A)P(A)和P(A,B)=P(A∣B)P(B). 結(jié)合兩個方程式產(chǎn)生 P(B∣A)P(A)=P(A∣B)P(B)因此

(2.6.1)P(A∣B)=P(B∣A)P(A)P(B).

這個簡單的等式具有深遠(yuǎn)的意義,因?yàn)樗试S我們顛倒條件反射的順序。如果我們知道如何估計 P(B∣A),P(A), 和P(B), 那么我們可以估計 P(A∣B). 我們經(jīng)常發(fā)現(xiàn)直接估計一項(xiàng)而不是另一項(xiàng)更容易,貝葉斯定理可以在這里提供幫助。例如,如果我們知道特定疾病的癥狀流行率,以及疾病和癥狀的總體流行率,我們就可以根據(jù)癥狀確定某人患該病的可能性。在某些情況下,我們可能無法直接訪問P(B),例如癥狀的普遍性。在這種情況下,貝葉斯定理的簡化版本就派上用場了:

(2.6.2)P(A∣B)∝P(B∣A)P(A).

因?yàn)槲覀冎繮(A∣B)必須歸一化為1, IE,∑aP(A=a∣B)=1,我們可以用它來計算

(2.6.3)P(A∣B)=P(B∣A)P(A)∑aP(B∣A=a)P(A=a).

在貝葉斯統(tǒng)計中,我們認(rèn)為觀察者擁有一些(主觀的)先驗(yàn)信念,即先驗(yàn)編碼的可用假設(shè)的合理性 P(H),以及一個似然函數(shù),表示一個人有多大可能觀察到針對類別中每個假設(shè)收??集的證據(jù)的任何值 P(E∣H). 然后貝葉斯定理被解釋為告訴我們?nèi)绾胃鲁跏枷闰?yàn) P(H)鑒于現(xiàn)有證據(jù)E產(chǎn)生后驗(yàn)信念 P(H∣E)=P(E∣H)P(H)P(E). 非正式地,這可以表述為“后驗(yàn)等于先驗(yàn)概率除以證據(jù)”。現(xiàn)在,因?yàn)樽C據(jù)P(E)對于所有假設(shè)都是相同的,我們可以通過簡單地對假設(shè)進(jìn)行歸一化來擺脫困境。

注意∑aP(A=a∣B)=1也允許我們 邊緣化隨機(jī)變量。也就是說,我們可以從聯(lián)合分布中刪除變量,例如P(A,B). 畢竟我們有

(2.6.4)∑aP(B∣A=a)P(A=a)=∑aP(B,A=a)=P(B).

獨(dú)立性是另一個非常重要的概念,它構(gòu)成了統(tǒng)計學(xué)中許多重要思想的支柱。簡而言之,如果以值為條件,則兩個變量是獨(dú)立的A不會導(dǎo)致與相關(guān)聯(lián)的概率分布發(fā)生任何變化 B反之亦然。更正式地說,獨(dú)立性表示為 A⊥B, 要求P(A∣B)=P(A)因此,P(A,B)=P(A∣B)P(B)=P(A)P(B). 獨(dú)立性通常是一個適當(dāng)?shù)募僭O(shè)。例如,如果隨機(jī)變量A表示拋一枚公平硬幣和隨機(jī)變量的結(jié)果B表示拋擲另一個的結(jié)果,然后知道是否A出現(xiàn)正面應(yīng)該不會影響概率B出現(xiàn)了。

當(dāng)獨(dú)立性在我們從某些基礎(chǔ)分布中連續(xù)抽取的數(shù)據(jù)中保持不變時(允許我們做出強(qiáng)有力的統(tǒng)計結(jié)論)或者當(dāng)它在我們數(shù)據(jù)中的各種變量中保持不變時特別有用,允許我們使用編碼這種獨(dú)立性結(jié)構(gòu)的更簡單的模型. 另一方面,估計隨機(jī)變量之間的依賴關(guān)系通常是學(xué)習(xí)的真正目的。我們特別關(guān)心在給定癥狀的情況下估計疾病的概率,因?yàn)槲覀冋J(rèn)為疾病和癥狀不是獨(dú)立的。

請注意,因?yàn)闂l件概率是適當(dāng)?shù)母怕剩?dú)立性和依賴性的概念也適用于它們。兩個隨機(jī)變量A和B 在給定第三個變量的情況下是條件獨(dú)立的C當(dāng)且僅當(dāng) P(A,B∣C)=P(A∣C)P(B∣C). 有趣的是,兩個變量通??梢允仟?dú)立的,但在以第三個變量為條件時變得依賴。這通常發(fā)生在兩個隨機(jī)變量 A和B對應(yīng)于某些第三個變量的原因 C. 例如,骨折和肺癌在普通人群中可能是獨(dú)立的,但如果我們以住院為條件,那么我們可能會發(fā)現(xiàn)骨折與肺癌呈負(fù)相關(guān)。那是因?yàn)楣钦劢忉屃藶槭裁从腥嗽卺t(yī)院,從而降低了他們患肺癌的可能性。

相反,兩個相關(guān)的隨機(jī)變量可以在第三個條件下變得獨(dú)立。當(dāng)兩個原本不相關(guān)的事件有一個共同的原因時,通常會發(fā)生這種情況。鞋碼和閱讀水平在小學(xué)生中高度相關(guān),但如果我們以年齡為條件,這種相關(guān)性就會消失。

2.6.5. 一個例子

讓我們來測試一下我們的技能。假設(shè)醫(yī)生對患者進(jìn)行 HIV 檢測。該測試相當(dāng)準(zhǔn)確,如果患者健康但報告他患病,則測試失敗的概率僅為 1%。此外,如果患者確實(shí)感染了 HIV,它永遠(yuǎn)不會檢測不到 HIV。我們用D1∈{0,1}以表明診斷(0如果負(fù)和1如果是正數(shù))和 H∈{0,1}來表示 HIV 狀態(tài)。

條件概率 H=1 H=0
P(D1=1∣H) 1個 0.01
P(D1=0∣H) 0 0.99

請注意,列總和均為 1(但行總和不是),因?yàn)樗鼈兪菞l件概率。如果檢測結(jié)果呈陽性,我們來計算患者感染 HIV 的概率,即 P(H=1∣D1=1). 直覺上這將取決于疾病的普遍程度,因?yàn)樗鼤绊懻`報的數(shù)量。假設(shè)人口相當(dāng)健康,例如, P(H=1)=0.0015. 要應(yīng)用貝葉斯定理,我們需要應(yīng)用邊緣化來確定

(2.6.5)P(D1=1)=P(D1=1,H=0)+P(D1=1,H=1)=P(D1=1∣H=0)P(H=0)+P(D1=1∣H=1)P(H=1)=0.011485.

這導(dǎo)致我們

(2.6.6)P(H=1∣D1=1)=P(D1=1∣H=1)P(H=1)P(D1=1)=0.1306.

換句話說,盡管使用了非常準(zhǔn)確的測試,但患者實(shí)際感染 HIV 的可能性只有 13.06%。正如我們所見,概率可能是違反直覺的?;颊呤盏竭@樣可怕的消息該怎么辦?患者可能會要求醫(yī)生進(jìn)行另一項(xiàng)測試以獲得清晰度。第二個測試有不同的特點(diǎn),不如第一個好。

條件概率 H=1 H=0
P(D2=1∣H) 0.98 0.03
P(D2=0∣H) 0.02 0.97

不幸的是,第二次測試也呈陽性。讓我們通過假設(shè)條件獨(dú)立來計算調(diào)用貝葉斯定理的必要概率:

(2.6.7)P(D1=1,D2=1∣H=0)=P(D1=1∣H=0)P(D2=1∣H=0)=0.0003,P(D1=1,D2=1∣H=1)=P(D1=1∣H=1)P(D2=1∣H=1)=0.98.

現(xiàn)在我們可以應(yīng)用邊緣化來獲得兩個測試都返回陽性的概率:

(2.6.8)P(D1=1,D2=1)=P(D1=1,D2=1,H=0)+P(D1=1,D2=1,H=1)=P(D1=1,D2=1∣H=0)P(H=0)+P(D1=1,D2=1∣H=1)P(H=1)=0.00176955.

最后,在兩項(xiàng)測試均為陽性的情況下,患者感染 HIV 的概率為

(2.6.9)P(H=1∣D1=1,D2=1)=P(D1=1,D2=1∣H=1)P(H=1)P(D1=1,D2=1)=0.8307.

也就是說,第二次測試讓我們更加確信并非一切都很好。盡管第二次測試的準(zhǔn)確性遠(yuǎn)低于第一次,但它仍然顯著改善了我們的估計。假設(shè)這兩個測試是條件獨(dú)立的,這對于我們生成更準(zhǔn)確的估計的能力至關(guān)重要。以我們兩次運(yùn)行相同測試的極端情況為例。在這種情況下,我們期望兩次的結(jié)果相同,因此再次運(yùn)行相同的測試不會獲得額外的洞察力。精明的讀者可能已經(jīng)注意到,診斷的行為就像一個隱藏在眾目睽睽之下的分類器,隨著我們獲得更多特征(測試結(jié)果),我們判斷患者是否健康的能力也會增強(qiáng)。

2.6.6. 期望

通常,做出決策不僅需要查看分配給單個事件的概率,還需要將它們組合成有用的集合,從而為我們提供指導(dǎo)。例如,當(dāng)隨機(jī)變量采用連續(xù)標(biāo)量值時,我們通常關(guān)心知道平均期望值是多少。這個數(shù)量正式稱為 期望。如果我們正在進(jìn)行投資,第一個感興趣的數(shù)量可能是我們可以預(yù)期的回報,對所有可能的結(jié)果進(jìn)行平均(并按適當(dāng)?shù)母怕始訖?quán))。例如,假設(shè)一項(xiàng)投資有 50% 的可能性完全失敗,有 40% 的可能性它可能提供 2× 返回,并且有 10% 的概率它可能提供 10× 返回 10×. 為了計算預(yù)期回報,我們將所有回報相加,將每個回報乘以它們發(fā)生的概率。這產(chǎn)生了期望 0.5?0+0.4?2+0.1?10=1.8. 因此預(yù)期回報為 1.8×.

一般來說,隨機(jī)變量的 期望(或平均值)X定義為

(2.6.10)E[X]=Ex~P[x]=∑xxP(X=x).

同樣,對于我們獲得的密度E[X]=∫xdp(x). 有時我們對某些函數(shù)的期望值感興趣 x. 我們可以將這些期望計算為

(2.6.11)Ex~P[f(x)]=∑xf(x)P(x)andEx~P[f(x)]=∫f(x)p(x)dx

分別用于離散概率和密度。回到上面的投資例子,f可能是 與回報相關(guān)的效用(幸福)。行為經(jīng)濟(jì)學(xué)家早就注意到,人們將更大的負(fù)效用與虧損聯(lián)系起來,而不是從相對于他們的基線賺取一美元所獲得的效用。此外,金錢的價值往往是次線性的。擁有 10 萬美元與零美元可以在支付房租、吃得好、享受優(yōu)質(zhì)醫(yī)療保健與遭受無家可歸的痛苦之間產(chǎn)生差異。另一方面,擁有 200k 相對于 100k 的收益就不那么顯著了。這樣的推理激發(fā)了“金錢的效用是對數(shù)”的陳詞濫調(diào)。

如果與總損失相關(guān)的效用為 -1,與 1、2 和 10 的回報相關(guān)的效用分別為 1、2 和 4,則投資的預(yù)期幸福感為 0.5?(?1)+0.4?2+0.1?4=0.7(預(yù)計效用損失 30%)。如果這確實(shí)是你的效用函數(shù),你最好還是把錢存在銀行里。

對于財務(wù)決策,我們可能還想衡量一項(xiàng)投資的風(fēng)險有多大。在這里,我們不僅關(guān)心預(yù)期值,還關(guān)心實(shí)際值相對于該值的變化幅度。請注意,我們不能只期望實(shí)際值和預(yù)期值之間的差異。這是因?yàn)閷Σ町惖钠谕瞧谕牟町?,因?E[X?E[X]]=E[X]?E[E[X]]=0. 然而,我們可以看看這種差異的任何非負(fù)函數(shù)的期望。隨機(jī)變量的方差 是通過查看方差的期望值來計算的:

(2.6.12)Var[X]=E[(X?E[X])2]=E[X2]?E[X]2.

這里的平等通過擴(kuò)大 (X?E[X])2=X2?2XE[X]+E[X]2并對每個學(xué)期都抱有期望。方差的平方根是另一個有用的量,稱為標(biāo)準(zhǔn)差。雖然方差和標(biāo)準(zhǔn)差傳達(dá)相同的信息(其中一個可以從另一個計算),但標(biāo)準(zhǔn)差具有很好的特性,即它以與隨機(jī)變量表示的原始數(shù)量相同的單位表示。

最后,隨機(jī)變量函數(shù)的方差被類似地定義為

(2.6.13)Varx~P[f(x)]=Ex~P[f2(x)]?Ex~P[f(x)]2.

回到我們的投資示例,我們現(xiàn)在可以計算投資的方差。它由 0.5?0+0.4?22+0.1?102?1.82=8.36. 就所有意圖和目的而言,這是一項(xiàng)風(fēng)險投資。請注意,根據(jù)數(shù)學(xué)慣例,均值和方差通常被稱為 μ和σ2. 每當(dāng)我們使用它來參數(shù)化高斯分布時,這尤其常見。

就像我們?yōu)闃?biāo)量 隨機(jī)變量引入期望和方差一樣,我們也可以為向量值隨機(jī)變量這樣做。期望很容易,因?yàn)槲覀兛梢园丛貞?yīng)用它們。例如, μ=defEx~P[x] 有坐標(biāo)μi=Ex~P[xi]. 協(xié)方差更復(fù)雜。我們通過對隨機(jī)變量與其均值之差的外積進(jìn)行期望來解決該問題。

(2.6.14)Σ=defCovx~P[x]=Ex~P[(x?μ)(x?μ)?].

這個矩陣Σ稱為協(xié)方差矩陣。查看其效果的一種簡單方法是考慮一些向量 v大小與x. 它遵循

(2.6.15)v?Σv=Ex~P[v?(x?μ)(x?μ)?v]=Varx~P[v?x].

像這樣,Σ允許我們計算任何線性函數(shù)的方差x通過一個簡單的矩陣乘法。非對角線元素告訴我們坐標(biāo)是如何相關(guān)的:值為 0 表示不相關(guān),其中較大的正值表示它們的相關(guān)性更強(qiáng)。

2.6.7. 討論

在機(jī)器學(xué)習(xí)中,有很多事情是不確定的!我們可以不確定給定輸入的標(biāo)簽值。我們可以不確定參數(shù)的估計值。我們甚至可以不確定到達(dá)部署的數(shù)據(jù)是否來自與訓(xùn)練數(shù)據(jù)相同的分布。

通過任意不確定性,我們表示問題固有的不確定性,并且由于觀察到的變量無法解釋的真正隨機(jī)性。通過認(rèn)知不確定性,我們表示模型參數(shù)的不確定性,我們希望通過收集更多數(shù)據(jù)來減少這種不確定性。關(guān)于硬幣正面朝上的概率,我們可能存在認(rèn)知上的不確定性,但即使我們知道了這個概率,我們也會對未來任何拋擲的結(jié)果產(chǎn)生不確定性。無論我們觀察某人拋硬幣多長時間,我們都不會超過或低于 50% 確定下一次拋硬幣會正面朝上。這些術(shù)語歸功于機(jī)械建模方面的文獻(xiàn),(參見例如Der Kiureghian 和 Ditlevsen(2009)對不確定性量化 這一方面的審查)。值得注意的是,這些術(shù)語構(gòu)成了輕微的語言濫用。認(rèn)知一詞指的是與知識有關(guān)的任何事物 ,因此在哲學(xué)意義上,所有不確定性都是認(rèn)知的。

我們看到,從一些未知概率分布中抽樣數(shù)據(jù)可以為我們提供可用于估計數(shù)據(jù)生成分布參數(shù)的信息。也就是說,這可能的速度可能非常慢。在我們的拋硬幣示例(以及許多其他示例)中,我們只能設(shè)計以以下速率收斂的估計器1/n, 在哪里n是樣本量(例如,投擲次數(shù))。這意味著通過從 10 次觀察到 1000 次觀察(通常是一項(xiàng)非常容易完成的任務(wù)),我們看到不確定性減少了 10 倍,而接下來的 1000 次觀察的幫助相對較小,僅減少了 1.41 倍。這是機(jī)器學(xué)習(xí)的一個持久特征:雖然通常很容易獲得收益,但它需要大量數(shù)據(jù),并且通常需要大量計算才能獲得更多收益。有關(guān)大規(guī)模語言模型這一事實(shí)的實(shí)證回顧,請參閱 Revels等人。(2016 年)。

我們還改進(jìn)了統(tǒng)計建模的語言和工具。在此過程中,我們學(xué)習(xí)了條件概率和統(tǒng)計學(xué)中最重要的方程之一——貝葉斯定理。它是通過似然項(xiàng)對數(shù)據(jù)傳遞的信息進(jìn)行解耦的有效工具P(B∣A)這解決了觀察的好壞B匹配參數(shù)選擇A和先驗(yàn)概率P(A)它決定了一個特定選擇的合理性A排在第一位。特別是,我們看到了如何根據(jù)測試的有效性和疾病本身的流行程度(即我們的先驗(yàn))應(yīng)用此規(guī)則來分配診斷概率。

最后,我們介紹了第一組關(guān)于特定概率分布影響的重要問題,即期望和方差。雖然概率分布不僅僅有線性和二次期望,但這兩個已經(jīng)提供了大量關(guān)于分布可能行為的知識。例如,切比雪夫不等式 指出P(|X?μ|≥kσ)≤1/k2, 在哪里 μ是期待,σ2是分布的方差,并且k>1是我們選擇的置信度參數(shù)。它告訴我們,從一個分布中抽取的樣本至少有 50% 的概率落在[?2σ,2σ] 區(qū)間以期望為中心。

2.6.8. 練習(xí)

舉一個例子,觀察更多的數(shù)據(jù)可以將結(jié)果的不確定性降低到任意低的水平。

舉一個例子,觀察更多的數(shù)據(jù)只會將不確定性減少到一定程度,然后就不會再減少了。解釋為什么會出現(xiàn)這種情況,以及您預(yù)計這一點(diǎn)會出現(xiàn)在哪里。

我們憑經(jīng)驗(yàn)證明了收斂于拋硬幣的均值。計算我們在繪制后看到頭部的概率估計的方差n樣品。

方差如何與觀測值數(shù)量成比例?

使用 Chebyshev 不等式限制與期望的偏差。

它與中心極限定理有何關(guān)系?

假設(shè)我們畫n樣本xi來自具有零均值和單位方差的概率分布。計算平均值 zm=defm?1∑i=1mxi. 我們能否將切比雪夫不等式應(yīng)用于每個zm獨(dú)立?為什么不?

給定兩個概率事件P(A)和 P(B), 計算上界和下界 P(A∪B)和 P(A∩B). 提示:使用維恩圖來描繪情況。

假設(shè)我們有一系列隨機(jī)變量,比如A, B, 和C, 在哪里B只取決于A, 和C只取決于B, 你能簡化聯(lián)合概率嗎P(A,B,C)?提示:這是一個馬爾可夫鏈。

在第 2.6.5 節(jié)中,假設(shè)兩個測試的結(jié)果不是獨(dú)立的。特別假設(shè)任一測試本身的假陽性率為 10%,假陰性率為 1%。也就是說,假設(shè) P(D=1∣H=0)=0.1然后 P(D=0∣H=1)=0.01. 此外,假設(shè)對于 H=1(感染)測試結(jié)果是條件獨(dú)立的,即 P(D1,D2∣H=1)=P(D1∣H=1)P(D2∣H=1)但對于健康患者來說,結(jié)果是通過以下方式耦合的 P(D1=D2=1∣H=0)=0.02.

計算聯(lián)合概率表D1和 D2, 給定H=0根據(jù)你目前掌握的信息。

推導(dǎo)患者為陽性的概率(H=1) 在一次測試返回正面之后。您可以假設(shè)相同的基線概率P(H=1)=0.0015像之前一樣。

推導(dǎo)患者為陽性的概率(H=1) 在兩次測試返回正面之后。

假設(shè)你是一家投資銀行的資產(chǎn)經(jīng)理,你可以選擇股票si投資。您的投資組合需要加起來1有重量αi對于每只股票。這些股票的平均回報率 μ=Es~P[s]和協(xié)方差 Σ=Covs~P[s].

計算給定投資組合的預(yù)期回報 α.

如果你想最大化投資組合的回報,你應(yīng)該如何選擇你的投資?

計算投資組合的方差。

制定一個最大化回報的優(yōu)化問題,同時將方差限制在上限。這是獲得諾貝爾獎的Markovitz 作品集 (Mangram,2013 年)。要解決它,您將需要一個二次規(guī)劃求解器,這超出了本書的范圍。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13931
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    統(tǒng)計學(xué)的概率分布

    統(tǒng)計學(xué)術(shù)語總結(jié)
    發(fā)表于 09-27 16:24

    PyTorch如何入門

    PyTorch 入門實(shí)戰(zhàn)(一)——Tensor
    發(fā)表于 06-01 09:58

    概率論及數(shù)理統(tǒng)計課教學(xué)規(guī)范

    概率論及數(shù)理統(tǒng)計》課教學(xué)規(guī)范 一、 課程教學(xué)的基本要求 課程名稱:概率論及數(shù)理統(tǒng)計英文名稱:Probaility Theory and Mathematical Sta
    發(fā)表于 11-25 15:08 ?0次下載

    統(tǒng)計置信度應(yīng)用于誤差概率估計

    本文主要介紹的是統(tǒng)計置信度應(yīng)用于誤差概率估計。
    發(fā)表于 04-22 11:39 ?23次下載

    概率論與數(shù)理統(tǒng)計視頻教程下載

    概率論與數(shù)理統(tǒng)計視頻教程一共有四個免費(fèi)視頻教程,請自已選擇喜歡的視頻教程。 本概
    發(fā)表于 07-05 18:40 ?494次下載
    <b class='flag-5'>概率</b>論與數(shù)理<b class='flag-5'>統(tǒng)計</b>視頻教程下載

    概率論與數(shù)理統(tǒng)計學(xué)習(xí)資料

     《概率論與數(shù)理統(tǒng)計》優(yōu)秀學(xué)習(xí)資料,概率論與數(shù)理統(tǒng)計學(xué)習(xí)資料隨機(jī)試驗(yàn)、樣本空間與隨機(jī)事件(1)隨機(jī)試驗(yàn):具有以下三個特點(diǎn)的試驗(yàn)稱為隨機(jī)試驗(yàn),記為E.1) 試驗(yàn)可
    發(fā)表于 02-13 11:40 ?0次下載

    matlab概率統(tǒng)計實(shí)驗(yàn)

    matlab概率統(tǒng)計實(shí)驗(yàn)9.1 實(shí)驗(yàn)(I):Galton釘板試驗(yàn)9.1.1 實(shí)驗(yàn)與觀察: Galton釘板模型和二項(xiàng)分布        1. 動
    發(fā)表于 10-17 00:38 ?4443次閱讀
    matlab<b class='flag-5'>概率</b><b class='flag-5'>統(tǒng)計</b>實(shí)驗(yàn)

    工程數(shù)學(xué)概率統(tǒng)計教程課后習(xí)題答案

    本內(nèi)容向大家提供了《工程數(shù)學(xué)概率統(tǒng)計教程》的課后習(xí)題答案, 完整的詳細(xì)的解題思路及題目的答案等,適合廣大學(xué)生及相關(guān)人員學(xué)習(xí)借鑒
    發(fā)表于 03-15 15:14 ?56次下載

    概率論與數(shù)理統(tǒng)計習(xí)題答案

    電子發(fā)燒友為大家提供了 概率論 與數(shù)理統(tǒng)計習(xí)題答案,幫助您解決在學(xué)習(xí)中遇到無法單獨(dú)解決的問題,希望對您的學(xué)習(xí)有所幫助,為您的學(xué)習(xí)提供便捷之路!
    發(fā)表于 07-14 16:56 ?85次下載

    概率論與數(shù)理統(tǒng)計PDF電子書免費(fèi)下載

    主要內(nèi)容包括:概率論的基本概念、隨機(jī)變量及其概率分布、數(shù)字特征、大數(shù)定律與中心極限定理、統(tǒng)計量及其概率分布、參數(shù)估計和假設(shè)檢驗(yàn)、回歸分析、方差分析、馬爾科夫鏈等內(nèi)容。
    發(fā)表于 11-25 08:00 ?0次下載
    <b class='flag-5'>概率</b>論與數(shù)理<b class='flag-5'>統(tǒng)計</b>PDF電子書免費(fèi)下載

    概率論與數(shù)理統(tǒng)計的復(fù)習(xí)題和答案免費(fèi)下載

    本文檔的主要內(nèi)容詳細(xì)介紹的是概率論與數(shù)理統(tǒng)計的復(fù)習(xí)題和答案免費(fèi)下載。
    發(fā)表于 06-28 08:00 ?16次下載
    <b class='flag-5'>概率</b>論與數(shù)理<b class='flag-5'>統(tǒng)計</b>的復(fù)習(xí)題和答案免費(fèi)下載

    DSP教程之統(tǒng)計概率和噪聲的詳細(xì)資料說明

    統(tǒng)計概率在數(shù)字信號處理中被用來描述信號和產(chǎn)生它們的過程。例如,DSP的主要用途是減少所采集數(shù)據(jù)中的干擾、噪聲和其他不需要的分量。這些可能是被測信號的固有部分,由數(shù)據(jù)采集系統(tǒng)的缺陷引起,或作為某些
    發(fā)表于 10-22 16:05 ?4次下載
    DSP教程之<b class='flag-5'>統(tǒng)計</b><b class='flag-5'>概率</b>和噪聲的詳細(xì)資料說明

    基于概率統(tǒng)計等的云計算隱私保護(hù)綜合評價模型

    基于概率統(tǒng)計等的云計算隱私保護(hù)綜合評價模型
    發(fā)表于 06-24 17:02 ?13次下載

    概率統(tǒng)計與隨機(jī)過程期末試卷及答案下載

    概率統(tǒng)計與隨機(jī)過程期末試卷及答案下載
    發(fā)表于 09-06 16:12 ?0次下載

    PyTorch教程2.6概率統(tǒng)計

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程2.6概率統(tǒng)計.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 11:29 ?1次下載
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>2.6</b>之<b class='flag-5'>概率</b><b class='flag-5'>統(tǒng)計</b>