優(yōu)化算法時(shí)間復(fù)雜度
算法的時(shí)間復(fù)雜度對(duì)程序的執(zhí)行效率影響最大,在 Python 中可以通過(guò)選擇合適的數(shù)據(jù)結(jié)構(gòu)來(lái)優(yōu)化時(shí)間復(fù)雜度,如 list 和 set 查找某一個(gè)元素的時(shí)間復(fù)雜度分別是O(n)和O(1)。不同的場(chǎng)景有不同的優(yōu)化方式,總得來(lái)說(shuō),一般有分治,分支界限,貪心,動(dòng)態(tài)規(guī)劃等思想。
減少冗余數(shù)據(jù)
如用上三角或下三角的方式去保存一個(gè)大的對(duì)稱矩陣。在0元素占大多數(shù)的矩陣?yán)锸褂孟∈杈仃嚤硎尽?/p>
合理使用 copy 與 deepcopy
對(duì)于 dict 和 list 等數(shù)據(jù)結(jié)構(gòu)的對(duì)象,直接賦值使用的是引用的方式。而有些情況下需要復(fù)制整個(gè)對(duì)象,這時(shí)可以使用 copy 包里的 copy 和 deepcopy,這兩個(gè)函數(shù)的不同之處在于后者是遞歸復(fù)制的。效率也不一樣:(以下程序在 ipython 中運(yùn)行)
import copya = range(100000)%timeit -n 10 copy.copy(a) # 運(yùn)行10次 copy.copy(a)%timeit -n 10 copy.deepcopy(a)10 loops, best of 3: 1.55 ms per loop10 loops, best of 3: 151 ms per loop
timeit 后面的-n表示運(yùn)行的次數(shù),后兩行對(duì)應(yīng)的是兩個(gè) timeit 的輸出,下同。由此可見后者慢一個(gè)數(shù)量級(jí)。
使用 dict 或 set 查找元素
python dict 和 set 都是使用 hash 表來(lái)實(shí)現(xiàn)(類似c++11標(biāo)準(zhǔn)庫(kù)中unordered_map),查找元素的時(shí)間復(fù)雜度是O(1)
a = range(1000)s = set(a)d = dict((i,1) for i in a)%timeit -n 10000 100 in d%timeit -n 10000 100 in s10000 loops, best of 3: 43.5 ns per loop10000 loops, best of 3: 49.6 ns per loop
dict 的效率略高(占用的空間也多一些)。
合理使用生成器(generator)和 yield
%timeit -n 100 a = (i for i in range(100000))%timeit -n 100 b = [i for i in range(100000)]100 loops, best of 3: 1.54 ms per loop100 loops, best of 3: 4.56 ms per loop
使用()得到的是一個(gè) generator 對(duì)象,所需要的內(nèi)存空間與列表的大小無(wú)關(guān),所以效率會(huì)高一些。在具體應(yīng)用上,比如 set(i for i in range(100000))會(huì)比 set([i for i in range(100000)])快。
但是對(duì)于需要循環(huán)遍歷的情況:
%timeit -n 10 for x in (i for i in range(100000)): pass%timeit -n 10 for x in [i for i in range(100000)]: pass10 loops, best of 3: 6.51 ms per loop10 loops, best of 3: 5.54 ms per loop
后者的效率反而更高,但是如果循環(huán)里有 break,用 generator 的好處是顯而易見的。yield 也是用于創(chuàng)建 generator:
def yield_func(ls): for i in ls: yield i+1def not_yield_func(ls): return [i+1 for i in ls]ls = range(1000000)%timeit -n 10 for i in yield_func(ls):pass%timeit -n 10 for i in not_yield_func(ls):pass10 loops, best of 3: 63.8 ms per loop10 loops, best of 3: 62.9 ms per loop
對(duì)于內(nèi)存不是非常大的 list,可以直接返回一個(gè) list,但是可讀性 yield 更佳(人個(gè)喜好)。
python2.x 內(nèi)置 generator 功能的有 xrange 函數(shù)、itertools 包等。
優(yōu)化循環(huán)
循環(huán)之外能做的事不要放在循環(huán)內(nèi),比如下面的優(yōu)化可以快一倍:
a = range(10000)size_a = len(a)%timeit -n 1000 for i in a: k = len(a)%timeit -n 1000 for i in a: k = size_a1000 loops, best of 3: 569 μs per loop1000 loops, best of 3: 256 μs per loop
優(yōu)化包含多個(gè)判斷表達(dá)式的順序
對(duì)于 and,應(yīng)該把滿足條件少的放在前面,對(duì)于 or,把滿足條件多的放在前面。如:
a = range(2000) %timeit -n 100 [i for i in a if 10 < i < 20 or 1000 < i < 2000]%timeit -n 100 [i for i in a if 1000 < i < 2000 or 100 < i < 20] ? ? %timeit -n 100 [i for i in a if i % 2 == 0 and i > 1900]%timeit -n 100 [i for i in a if i > 1900 and i % 2 == 0]100 loops, best of 3: 287 μs per loop100 loops, best of 3: 214 μs per loop100 loops, best of 3: 128 μs per loop100 loops, best of 3: 56.1 μs per loop
使用 join 合并迭代器中的字符串
In [1]: %%timeit ...: s = '' ...: for i in a: ...: s += i ...:10000 loops, best of 3: 59.8 μs per loopIn [2]: %%timeits = ''.join(a) ...:100000 loops, best of 3: 11.8 μs per loop
join 對(duì)于累加的方式,有大約5倍的提升。
選擇合適的格式化字符方式
s1, s2 = 'ax', 'bx'%timeit -n 100000 'abc%s%s' % (s1, s2)%timeit -n 100000 'abc{0}{1}'.format(s1, s2)%timeit -n 100000 'abc' + s1 + s2100000 loops, best of 3: 183 ns per loop100000 loops, best of 3: 169 ns per loop100000 loops, best of 3: 103 ns per loop
三種情況中,%的方式是最慢的,但是三者的差距并不大(都非常快)。(個(gè)人覺得%的可讀性最好)
不借助中間變量交換兩個(gè)變量的值
In [3]: %%timeit -n 10000 a,b=1,2 ....: c=a;a=b;b=c; ....:10000 loops, best of 3: 172 ns per loopIn [4]: %%timeit -n 10000a,b=1,2a,b=b,a ....:10000 loops, best of 3: 86 ns per loop
使用a,b=b,a而不是c=a;a=b;b=c;來(lái)交換a,b的值,可以快1倍以上。
使用 if is
a = range(10000)%timeit -n 100 [i for i in a if i == True]%timeit -n 100 [i for i in a if i is True]100 loops, best of 3: 531 μs per loop100 loops, best of 3: 362 μs per loop
使用if is True比if == True將近快一倍。
使用級(jí)聯(lián)比較x < y < z
x, y, z = 1,2,3%timeit -n 1000000 if x < y < z:pass%timeit -n 1000000 if x < y and y < z:pass1000000 loops, best of 3: 101 ns per loop1000000 loops, best of 3: 121 ns per loop
x < y < z效率略高,而且可讀性更好。
while 1比while True更快
def while_1(): n = 100000 while 1: n -= 1 if n <= 0: breakdef while_true(): ? ?n = 100000 ? ?while True: ? ? ? ?n -= 1 ? ? ? ?if n <= 0: break ? ?m, n = 1000000, 1000000 %timeit -n 100 while_1()%timeit -n 100 while_true()100 loops, best of 3: 3.69 ms per loop100 loops, best of 3: 5.61 ms per loop
while 1 比 while true 快很多,原因是在 python2.x 中,True 是一個(gè)全局變量,而非關(guān)鍵字。
使用**而不是 pow
%timeit -n 10000 c = pow(2,20)%timeit -n 10000 c = 2**2010000 loops, best of 3: 284 ns per loop10000 loops, best of 3: 16.9 ns per loop
**就是快10倍以上!
使用 cProfile, cStringIO 和 cPickle 等用c實(shí)現(xiàn)相同功能(分別對(duì)應(yīng)profile, StringIO, pickle)的包
import cPickleimport picklea = range(10000)%timeit -n 100 x = cPickle.dumps(a)%timeit -n 100 x = pickle.dumps(a)100 loops, best of 3: 1.58 ms per loop100 loops, best of 3: 17 ms per loop
由c實(shí)現(xiàn)的包,速度快10倍以上!
使用最佳的反序列化方式
下面比較了 eval, cPickle, json 方式三種對(duì)相應(yīng)字符串反序列化的效率:
import jsonimport cPicklea = range(10000)s1 = str(a)s2 = cPickle.dumps(a)s3 = json.dumps(a)%timeit -n 100 x = eval(s1)%timeit -n 100 x = cPickle.loads(s2)%timeit -n 100 x = json.loads(s3)100 loops, best of 3: 16.8 ms per loop100 loops, best of 3: 2.02 ms per loop100 loops, best of 3: 798 μs per loop
可見 json 比 cPickle 快近3倍,比 eval 快20多倍。
使用C擴(kuò)展(Extension)
目前主要有 CPython(python最常見的實(shí)現(xiàn)的方式)原生API, ctypes,Cython,cffi三種方式,它們的作用是使得 Python 程序可以調(diào)用由C編譯成的動(dòng)態(tài)鏈接庫(kù),其特點(diǎn)分別是:
CPython 原生 API: 通過(guò)引入 Python.h 頭文件,對(duì)應(yīng)的C程序中可以直接使用Python 的數(shù)據(jù)結(jié)構(gòu)。實(shí)現(xiàn)過(guò)程相對(duì)繁瑣,但是有比較大的適用范圍。
ctypes: 通常用于封裝(wrap)C程序,讓純 Python 程序調(diào)用動(dòng)態(tài)鏈接庫(kù)(Windows 中的 dll 或 Unix 中的 so 文件)中的函數(shù)。如果想要在 python 中使用已經(jīng)有C類庫(kù),使用 ctypes 是很好的選擇,有一些基準(zhǔn)測(cè)試下,python2+ctypes 是性能最好的方式。
Cython: Cython 是 CPython 的超集,用于簡(jiǎn)化編寫C擴(kuò)展的過(guò)程。Cython 的優(yōu)點(diǎn)是語(yǔ)法簡(jiǎn)潔,可以很好地兼容 numpy 等包含大量C擴(kuò)展的庫(kù)。Cython 的使得場(chǎng)景一般是針對(duì)項(xiàng)目中某個(gè)算法或過(guò)程的優(yōu)化。在某些測(cè)試中,可以有幾百倍的性能提升。
cffi: cffi 的就是 ctypes 在 pypy(詳見下文)中的實(shí)現(xiàn),同進(jìn)也兼容 CPython。cffi提供了在 python 使用C類庫(kù)的方式,可以直接在 python 代碼中編寫C代碼,同時(shí)支持鏈接到已有的C類庫(kù)。
使用這些優(yōu)化方式一般是針對(duì)已有項(xiàng)目性能瓶頸模塊的優(yōu)化,可以在少量改動(dòng)原有項(xiàng)目的情況下大幅度地提高整個(gè)程序的運(yùn)行效率。
并行編程
因?yàn)?GIL 的存在,Python 很難充分利用多核 CPU 的優(yōu)勢(shì)。但是,可以通過(guò)內(nèi)置的模塊 multiprocessing 實(shí)現(xiàn)下面幾種并行模式:
多進(jìn)程:對(duì)于 CPU 密集型的程序,可以使用 multiprocessing 的 Process,Pool 等封裝好的類,通過(guò)多進(jìn)程的方式實(shí)現(xiàn)并行計(jì)算。但是因?yàn)檫M(jìn)程中的通信成本比較大,對(duì)于進(jìn)程之間需要大量數(shù)據(jù)交互的程序效率未必有大的提高。
多線程:對(duì)于 IO 密集型的程序,multiprocessing.dummy 模塊使用 multiprocessing 的接口封裝 threading,使得多線程編程也變得非常輕松(比如可以使用 Pool 的 map 接口,簡(jiǎn)潔高效)。
分布式:multiprocessing 中的 Managers 類提供了可以在不同進(jìn)程之共享數(shù)據(jù)的方式,可以在此基礎(chǔ)上開發(fā)出分布式的程序。
不同的業(yè)務(wù)場(chǎng)景可以選擇其中的一種或幾種的組合實(shí)現(xiàn)程序性能的優(yōu)化。
終級(jí)大殺器:PyPy
PyPy 是用 RPython(CPython 的子集)實(shí)現(xiàn)的 Python,根據(jù)官網(wǎng)的基準(zhǔn)測(cè)試數(shù)據(jù),它比 CPython 實(shí)現(xiàn)的 Python 要快6倍以上。快的原因是使用了 Just-in-Time(JIT)編譯器,即動(dòng)態(tài)編譯器,與靜態(tài)編譯器(如gcc,javac等)不同,它是利用程序運(yùn)行的過(guò)程的數(shù)據(jù)進(jìn)行優(yōu)化。由于歷史原因,目前 pypy 中還保留著 GIL,不過(guò)正在進(jìn)行的 STM 項(xiàng)目試圖將 PyPy 變成沒有 GIL 的 Python。
如果 python 程序中含有C擴(kuò)展(非cffi的方式),JIT 的優(yōu)化效果會(huì)大打折扣,甚至比 CPython 慢(比 Numpy)。所以在 PyPy 中最好用純 Python 或使用 cffi 擴(kuò)展。
隨著 STM,Numpy 等項(xiàng)目的完善,相信 PyPy 將會(huì)替代 CPython。
使用性能分析工具
除了上面在 ipython 使用到的 timeit 模塊,還有 cProfile。cProfile 的使用方式也非常簡(jiǎn)單:python -m cProfile filename.py,filename.py是要運(yùn)行程序的文件名,可以在標(biāo)準(zhǔn)輸出中看到每一個(gè)函數(shù)被調(diào)用的次數(shù)和運(yùn)行的時(shí)間,從而找到程序的性能瓶頸,然后可以有針對(duì)性地優(yōu)化。
-
冗余
+關(guān)注
關(guān)注
1文章
112瀏覽量
20530 -
編程
+關(guān)注
關(guān)注
88文章
3674瀏覽量
94716 -
python
+關(guān)注
關(guān)注
56文章
4822瀏覽量
85895
原文標(biāo)題:Python 性能優(yōu)化的20條招數(shù)
文章出處:【微信號(hào):magedu-Linux,微信公眾號(hào):馬哥Linux運(yùn)維】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
分享50條經(jīng)典的Python一行代碼
使用Rust優(yōu)化Python性能

評(píng)論