一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Python的矩陣傳播機制

Linux愛好者 ? 來源:SimpleAI ? 作者:Beyond ? 2021-09-30 16:53 ? 次閱讀

一、Python的矩陣傳播機制(Broadcasting)

我們知道在深度學習中經常要操作各種矩陣(matrix)。

回想一下,我們在操作數組(list)的時候,經常習慣于用**for循環(huán)(for-loop)**來對數組的每一個元素進行操作。例如:

my_list = [1,2,3,4]

new_list = []

for each in my_list:

new_list.append(each*2)

print(new_list) # 輸出 [2,3,4,5]

如果是矩陣呢:

my_matrix = [[1,2,3,4],

[5,6,7,8]]

new_matrix = [[],[]]

for i in range(2):

for j in range(4):

new_matrix[i].append(my_matrix[i][j]*2)

print(new_matrix)# 輸出 [[2, 4, 6, 8], [10, 12, 14, 16]]

實際上,上面的做法是十分的低效的!數據量小的話還不明顯,如果數據量大了,尤其是深度學習中我們處理的矩陣往往巨大,那用for循環(huán)去跑一個矩陣,可能要你幾個小時甚至幾天。

Python考慮到了這一點,這也是本文主要想介紹的**“Python的broadcasting”即傳播機制**。

先說一句,python中定義矩陣、處理矩陣,我們一般都用numpy這個庫。

二、下面展示什么是python的傳播機制

import numpy as np# 先定義一個3×3矩陣 A:

A = np.array(

[[1,2,3],

[4,5,6],

[7,8,9]])

print(“A:

”,A)

print(“

A*2:

”,A*2) # 直接用A乘以2print(“

A+10:

”,A+10) # 直接用A加上10

運行結果:

A:

[[1 2 3]

[4 5 6]

[7 8 9]]

A*2:

[[ 2 4 6]

[ 8 10 12]

[14 16 18]]

A+10:

[[11 12 13]

[14 15 16]

[17 18 19]]

接著,再看看矩陣×(+)矩陣:

#定義一個3×1矩陣(此時也可叫向量了)

B = np.array([[10],

[100],

[1000]])

print(“

B:

”,B)

print(“

A+B:

”,A+B)

print(“

A*B:

”,A*B)

運行結果:

B:

[[ 10]

[ 100]

[1000]]

A+B:

[[ 11 12 13]

[ 104 105 106]

[1007 1008 1009]]

A*B:

[[ 10 20 30]

[ 400 500 600]

[7000 8000 9000]]

可見,雖然A和B的形狀不一樣,一個是3×3,一個是3×1,但是我們在python中可以直接相加、相乘,相減相除也可以。

也許看到這,大家都對broadcasting有感覺了。

用一個圖來示意一下:

所謂“傳播”,就是把一個數或者一個向量進行“復制”,從而作用到矩陣的每一個元素上。

有了這種機制,那進行向量和矩陣的運算,就太方便了!理解了傳播機制,就可以隨心所欲地對矩陣進行各種便捷的操作了。

利用numpy的內置函數對矩陣進行操作:

numpy內置了很多的數學函數,例如np.log(),np.abs(),np.maximum()等等上百種。直接把矩陣丟進去,就可以算出新矩陣!示例:

print(np.log(A))

輸出把A矩陣每一個元素求log后得到的新矩陣:

array([[0. , 0.69314718, 1.09861229],

[1.38629436, 1.60943791, 1.79175947],

[1.94591015, 2.07944154, 2.19722458]])

再比如深度學習中常用的ReLU激活函數,就是y=max(0,x),

也可以對矩陣直接運算:

X = np.array([[1,-2,3,-4], [-9,4,5,6]])Y = np.maximum(0,X)print(Y)

得到:

[[1 0 3 0] [0 4 5 6]]

更多的numpy數學函數,可以參見文檔:https://docs.scipy.org/doc/numpy-1.13.0/reference/routines.math.html

三、定義自己的函數來處理矩陣

其實這才是我寫下本文的目的。。。前面扯了這么多,只是做個鋪墊(/ω\)

我昨天遇到個問題,就是我要對ReLU函數求導,易知,y=max(0,x)的導函數是:y’ = 0 if x《0y’ = 1 if x》0但是這個y’(x)numpy里面沒有定義,需要自己構建。即,我需要將矩陣X中的小于0的元素變?yōu)?,大于0的元素變?yōu)?。搞了好久沒弄出來,后來在StackOverflow上看到了解決辦法:

def relu_derivative(x):

x[x《0] = 0

x[x》0] = 1

return x

X = np.array([[1,-2,3,-4],

[-9,4,5,6]])

print(relu_derivative(X))

輸出:

[[1 0 1 0]

[0 1 1 1]]

**居然這么簡潔就出來了?。?!**ミ?Д?彡 (?Д?#)

這個函數relu_derivative中最難以理解的地方,就是**x[x》0]**了。于是我試了一下:

X = np.array([[1,-2,3,-4],

[-9,4,5,6]])

print(X[X》0])

print(X[X《0])

輸出:

[1 3 4 5 6]

[-2 -4 -9]

它直接把矩陣X中滿足條件的元素取了出來!原來python對矩陣還有這種操作!

震驚了我好久~

所以可以這么理解,X[X》0]相當于一個“選擇器”,把滿足條件的元素選出來,然后直接全部賦值。

用這種方法,我們便可以定義各種各樣我們需要的函數,然后對矩陣整體進行更新操作了!

四、綜上

可以看出,python以及numpy對矩陣的操作簡直神乎其神,方便快捷又實惠。其實上面忘了寫一點,那就是計算機進行矩陣運算的效率要遠遠高于用for-loop來運算,

不信可以用跑一跑:

# vetorization vs for loop# define two arrays a, b:

a = np.random.rand(1000000)

b = np.random.rand(1000000)

# for loop version:

t1 = time.time()

c = 0

for i in range(1000000):

c += a[i]*b[i]

t2 = time.time()

print(c)

print(“for loop version:”+str(1000*(t2-t1))+“ms”)

time1 = 1000*(t2-t1)

# vectorization version:

t1 = time.time()

c = np.dot(a,b)

t2 = time.time()

print(c)

print(“vectorization version:”+str(1000*(t2-t1))+“ms”)

time2 = 1000*(t2-t1)

print(“vectorization is faster than for loop by ”+str(time1/time2)+“ times!”)

運行結果:

249765.8415288075

for loop version:627.4442672729492ms

249765.84152880745

vectorization version:1.5032291412353516ms

vectorization is faster than for loop by 417.39762093576525 times!

可見,用for方法和向量化方法,計算結果是一樣,但是后者比前者快了400多倍!

因此,在計算量很大的時候,我們要盡可能想辦法對數據進行Vectorizing,即“向量化”,以便讓計算機進行矩陣運算。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • for
    for
    +關注

    關注

    0

    文章

    44

    瀏覽量

    16016
  • python
    +關注

    關注

    56

    文章

    4822

    瀏覽量

    85900
  • 深度學習
    +關注

    關注

    73

    文章

    5548

    瀏覽量

    122337

原文標題:消滅 for 循環(huán)!Python 的矩陣傳播機制和矩陣運算

文章出處:【微信號:LinuxHub,微信公眾號:Linux愛好者】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    什么是BP神經網絡的反向傳播算法

    BP神經網絡的反向傳播算法(Backpropagation Algorithm)是一種用于訓練神經網絡的有效方法。以下是關于BP神經網絡的反向傳播算法的介紹: 一、基本概念 反向傳播算法是BP
    的頭像 發(fā)表于 02-12 15:18 ?472次閱讀

    JCMsuite—單模光纖傳播模式

    在本教程項目中,我們計算了帶有摻雜二氧化硅芯的圓柱形光纖的基本傳播模式。 磁芯具有相對介電常數?core=2.113和直徑dcore=8.2μm。包層具有相對介電常數?cladding
    發(fā)表于 01-09 08:57

    通過微透鏡陣列的傳播

    使用最新發(fā)布的版本中引入的一個新的MLA組件來設置和模擬這樣的系統(tǒng),允許對微透鏡組件后面的近場以及遠場和焦點區(qū)域的傳輸場進行徹底的研究。 微透鏡陣列后光傳播的研究 本用例研究微透鏡陣列后傳播的光。給出并
    發(fā)表于 01-08 08:49

    通過微透鏡陣列的傳播

    使用最新發(fā)布的版本中引入的一個新的MLA組件來設置和模擬這樣的系統(tǒng),允許對微透鏡組件后面的近場以及遠場和焦點區(qū)域的傳輸場進行徹底的研究。 微透鏡陣列后光傳播的研究 本用例研究微透鏡陣列后傳播的光。給出并
    發(fā)表于 12-11 11:32

    【每天學點AI】前向傳播、損失函數、反向傳播

    在深度學習的領域中,前向傳播、反向傳播和損失函數是構建和訓練神經網絡模型的三個核心概念。今天,小編將通過一個簡單的實例,解釋這三個概念,并展示它們的作用。前向傳播:神經網絡的“思考”過程前向
    的頭像 發(fā)表于 11-15 10:32 ?1047次閱讀
    【每天學點AI】前向<b class='flag-5'>傳播</b>、損失函數、反向<b class='flag-5'>傳播</b>

    MATLAB(6)--特殊矩陣

    通用的特殊矩陣 zero函數:產生全是0矩陣,即零矩陣。 ones函數:產生全是1矩陣,即幺矩陣。 eyes函數:產生對角線為1的
    發(fā)表于 09-06 10:24

    MATLAB(2)--MATLAB矩陣的表示

    矩陣的建立 利用直接輸入法建立矩陣:將矩陣的元素用中括號括起來,按矩陣的順序輸入各元素,同一行的各元素之間用逗號或者空格分隔,不同的元素之間用分號分隔。 利用已建好的
    發(fā)表于 09-06 10:05

    MATLAB中的矩陣索引

    矩陣進行索引是從矩陣中選擇或修改部分元素的一種方式。MATLAB 有幾種索引樣式,它們不僅功能強大、靈活,而且可讀性強、表現(xiàn)力強。矩陣是 MATLAB 用來組織和分析數據的一個核心組件,索引是以可理解的方式有效操作
    的頭像 發(fā)表于 09-05 09:28 ?870次閱讀
    MATLAB中的<b class='flag-5'>矩陣</b>索引

    XLT開關矩陣

    開關矩陣 蘇州新利通 系列化開關矩陣是提高被測件測試效率、實現(xiàn)自動化測試的核心設備,是基于標準控制平臺可進行定制化設計的產品。系列化開關矩陣工作頻率范圍覆蓋DC~67GHz,可通過LAN、GPIB
    的頭像 發(fā)表于 08-06 17:15 ?390次閱讀
    XLT開關<b class='flag-5'>矩陣</b>

    pytorch和python的關系是什么

    在當今的人工智能領域,Python已經成為了最受歡迎的編程語言之一。Python的易學易用、豐富的庫和框架以及強大的社區(qū)支持,使其成為了數據科學、機器學習和深度學習等領域的首選語言。而在深度學習領域
    的頭像 發(fā)表于 08-01 15:27 ?2964次閱讀

    盛顯科技:混合矩陣和拼接處理器的區(qū)別

    在視頻顯示與控制系統(tǒng)集成項目中,拼接處理器與混合矩陣作為兩大關鍵組件,各自扮演著不可或缺的角色。盡管它們都是信號管理與分配的重要工具,但它們在運作機制與功能特性上展現(xiàn)出了顯著的不同。 運作機制之別
    的頭像 發(fā)表于 07-25 11:43 ?590次閱讀
    盛顯科技:混合<b class='flag-5'>矩陣</b>和拼接處理器的區(qū)別

    opencv-python和opencv一樣嗎

    不一樣。OpenCV(Open Source Computer Vision Library)是一個開源的計算機視覺和機器學習軟件庫,它提供了大量的圖像和視頻處理功能。OpenCV-Python
    的頭像 發(fā)表于 07-16 10:38 ?1812次閱讀

    用pycharm進行python爬蟲的步驟

    以下是使用PyCharm進行Python爬蟲的步驟: 安裝PyCharm和Python 首先,您需要安裝PyCharm和Python。PyCharm是一個流行的Python集成開發(fā)環(huán)境
    的頭像 發(fā)表于 07-11 10:11 ?1227次閱讀

    BP神經網絡的學習機制

    BP神經網絡(Backpropagation Neural Network),即反向傳播神經網絡,是一種基于梯度下降算法的多層前饋神經網絡,其學習機制的核心在于通過反向傳播算法
    的頭像 發(fā)表于 07-10 15:49 ?971次閱讀

    神經網絡前向傳播和反向傳播區(qū)別

    神經網絡是一種強大的機器學習模型,廣泛應用于各種領域,如圖像識別、語音識別、自然語言處理等。神經網絡的核心是前向傳播和反向傳播算法。本文將詳細介紹神經網絡的前向傳播和反向傳播的區(qū)別,以
    的頭像 發(fā)表于 07-02 14:18 ?1229次閱讀