一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2018年的7大最好的Python庫(kù)

DPVg_AI_era ? 來(lái)源:lq ? 2019-01-06 09:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者根據(jù)每周發(fā)布總結(jié)的系列文章,匯總了2018年針對(duì)數(shù)據(jù)科學(xué)家/AI的最佳庫(kù)、repos、包和工具。本文對(duì)其進(jìn)行了梳理,列舉了人工智能和數(shù)據(jù)科學(xué)的七大Python庫(kù)。

本文作者Favio Vázquez從2018年開(kāi)始發(fā)布《數(shù)據(jù)科學(xué)和人工智能每周文摘:Python & R》系列文章,為數(shù)據(jù)科學(xué)家介紹最好的庫(kù)、repos、packages以及工具。

一年結(jié)束,作者列出了2018年的7大最好的Python庫(kù),這些庫(kù)確實(shí)地改進(jìn)了研究人員的工作方式。

7. AdaNet?———快速靈活的AutoML框架

https://github.com/tensorflow/adanet

AdaNet是一個(gè)輕量級(jí)的、可擴(kuò)展的TensorFlow AutoML框架,用于使用AdaNet算法訓(xùn)練和部署自適應(yīng)神經(jīng)網(wǎng)絡(luò)[Cortes et al. ICML 2017]。AdaNet結(jié)合了多個(gè)學(xué)習(xí)子網(wǎng)絡(luò),以減輕設(shè)計(jì)有效的神經(jīng)網(wǎng)絡(luò)所固有的復(fù)雜性。

這個(gè)軟件包將幫助你選擇最優(yōu)的神經(jīng)網(wǎng)絡(luò)架構(gòu),實(shí)現(xiàn)一種自適應(yīng)算法,用于學(xué)習(xí)作為子網(wǎng)絡(luò)集合的神經(jīng)架構(gòu)。

你需要了解TensorFlow才能使用這個(gè)包,因?yàn)樗鼘?shí)現(xiàn)了TensorFlow Estimator,但這將通過(guò)封裝訓(xùn)練、評(píng)估、預(yù)測(cè)和導(dǎo)出服務(wù)來(lái)幫助你簡(jiǎn)化機(jī)器學(xué)習(xí)編程。

你可以構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)的集合,這個(gè)庫(kù)將幫助你優(yōu)化一個(gè)目標(biāo),以平衡集合在訓(xùn)練集上的性能和將其泛化到未見(jiàn)過(guò)數(shù)據(jù)的能力之間的權(quán)衡。

安裝

安裝adanet之前需將TensorFlow升級(jí)到1.7或以上:

$pipinstall"tensorflow>=1.7.0"

從源代碼安裝

要從源代碼進(jìn)行安裝,首先需要安裝bazel。

下一步,復(fù)制adanet和cd到它的根目錄:

$gitclonehttps://github.com/tensorflow/adanet&&cdadanet

從adanet根目錄運(yùn)行測(cè)試:

$cdadanet$bazeltest-copt//...

確認(rèn)一切正常后,將adanet安裝為pip包。

現(xiàn)在,可以對(duì)adanet進(jìn)行試驗(yàn)了。

importadanet

用法

有關(guān)AdaNet的詳細(xì)用法,請(qǐng)閱讀官方教程

https://github.com/tensorflow/adanet/tree/master/adanet/examples/tutorials

https://ai.googleblog.com/2018/10/introducing-adanet-fast-and-flexible.html?m=1

6. TPOT——一個(gè)自動(dòng)化的Python機(jī)器學(xué)習(xí)工具

https://github.com/EpistasisLab/tpot

之前我介紹過(guò)Auto-Keras,這是一個(gè)很棒的AutoML庫(kù)。現(xiàn)在我們有另一個(gè)非常有趣的工具——TPOT。

TPOT全稱(chēng)是基于樹(shù)的pipeline優(yōu)化工具(Tree-based Pipeline Optimization Tool),這是一個(gè)非常棒Python自動(dòng)機(jī)器學(xué)習(xí)工具,使用遺傳編程優(yōu)化機(jī)器學(xué)習(xí)pipeline。

TPOT可以自動(dòng)化許多東西,包括生命特性選擇、模型選擇、特性構(gòu)建等等。如果你是Python機(jī)器學(xué)習(xí)者,很幸運(yùn),TPOT是構(gòu)建在Scikit-learn之上的,所以它生成的所有代碼看起來(lái)應(yīng)該很熟悉。

它的作用是通過(guò)智能地探索數(shù)千種可能的pipeline來(lái)自動(dòng)化機(jī)器學(xué)習(xí)中最繁瑣的部分,找到最適合你的數(shù)據(jù)的pipeline,然后為你提供最佳的 Python 代碼。

它的工作原理如下:

安裝

安裝TPOT之前,請(qǐng)先閱讀教程:

http://epistasislab.github.io/tpot/installing/

然后,運(yùn)行以下代碼:

pipinstalltpot

例子:

首先讓我們從基本的Iris數(shù)據(jù)集開(kāi)始:

1fromtpotimportTPOTClassifier 2fromsklearn.datasetsimportload_iris 3fromsklearn.model_selectionimporttrain_test_split 4 5#Loadirisdataset 6iris=load_iris() 7 8#Splitthedata 910X_trainX_train,X_test,y_train,y_test=train_test_split(iris.data,iris.target,11train_size=0.75,test_size=0.25)1213#FittheTPOTclassifier1415tpot=TPOTClassifier(verbosity=2,max_time_mins=2)16tpot.fit(X_train,y_train)1718#Exportthepipeline19tpot.export('tpot_iris_pipeline.py')

我們?cè)谶@里構(gòu)建了一個(gè)非常基本的TPOT pipeline,它將嘗試尋找最佳ML pipeline來(lái)預(yù)測(cè)iris.target。然后保存這個(gè)pipeline。之后,我們要做的就非常簡(jiǎn)單了——加載生成的.py文件,你將看到:

1importnumpyasnp 2fromsklearn.kernel_approximationimportRBFSampler 3fromsklearn.model_selectionimporttrain_test_split 4fromsklearn.pipelineimportmake_pipeline 5fromsklearn.treeimportDecisionTreeClassifier 6#NOTE:Makesurethattheclassislabeled'class'inthedatafile 7tpot_data=np.recfromcsv('PATH/TO/DATA/FILE',delimiter='COLUMN_SEPARATOR',dtype=np.float64) 8features=np.delete(tpot_data.view(np.float64).reshape(tpot_data.size,-1),tpot_data.dtype.names.index('class'),axis=1) 9training_features,testing_features,training_classes,testing_classes=10train_test_split(features,tpot_data['class'],random_state=42)11exported_pipeline=make_pipeline(12RBFSampler(gamma=0.8500000000000001),13DecisionTreeClassifier(criterion="entropy",max_depth=3,min_samples_leaf=4,min_samples_split=9)14)15exported_pipeline.fit(training_features,training_classes)16results=exported_pipeline.predict(testing_features)

就是這樣。你已經(jīng)以一種簡(jiǎn)單但強(qiáng)大的方式為Iris數(shù)據(jù)集構(gòu)建一個(gè)分類(lèi)器。

現(xiàn)在我們來(lái)看看MNIST的數(shù)據(jù)集:

1fromtpotimportTPOTClassifier 2fromsklearn.datasetsimportload_digits 3fromsklearn.model_selectionimporttrain_test_split 4 5#loadandsplitdataset 6digitsdigits==load_digitsload_di() 7X_train,X_test,y_train,y_test=train_test_split(digits.data,digits.target, 8train_size=0.75,test_size=0.25) 910#FittheTPOTclassifier11tpot=TPOTClassifier(verbosity=2,max_time_mins=5,population_size=40)12tpot.fit(X_train,y_train)1314#Exportpipeline15tpot.export('tpot_mnist_pipeline.py')

接下來(lái)我們?cè)俅渭虞d生成的 .py文件,你將看到:

1importnumpyasnp 2fromsklearn.model_selectionimporttrain_test_split 3fromsklearn.neighborsimportKNeighborsClassifier 4#NOTE:Makesurethattheclassislabeled'class'inthedatafile 5tpot_data=np.recfromcsv('PATH/TO/DATA/FILE',delimiter='COLUMN_SEPARATOR',dtype=np.float64) 6features=np.delete(tpot_data.view(np.float64).reshape(tpot_data.size,-1),tpot_data.dtype.names.index('class'),axis=1) 7training_features,testing_features,training_classes,testing_classes= 8train_test_split(features,tpot_data['class'],random_state=42) 9exported_pipeline=KNeighborsClassifier(n_neighbors=4,p=2,weights="distance")10exported_pipeline.fit(training_features,training_classes)11results=exported_pipeline.predict(testing_features)

5. SHAP?——一個(gè)解釋任何機(jī)器模型輸出的統(tǒng)一方法

https://github.com/slundberg/shap

解釋機(jī)器學(xué)習(xí)模型并不容易。然而,它對(duì)許多商業(yè)應(yīng)用程序來(lái)說(shuō)非常重要。幸運(yùn)的是,有一些很棒的庫(kù)可以幫助我們完成這項(xiàng)任務(wù)。在許多應(yīng)用程序中,我們需要知道、理解或證明輸入變量在模型中的運(yùn)作方式,以及它們?nèi)绾斡绊懽罱K的模型預(yù)測(cè)。

SHAP (SHapley Additive exPlanations)是一種解釋任何機(jī)器學(xué)習(xí)模型輸出的統(tǒng)一方法。SHAP將博弈論與局部解釋聯(lián)系起來(lái),并結(jié)合了之前的幾種方法。

安裝

SHAP可以從PyPI安裝

pipinstallshap

或conda -forge

condainstall-cconda-forgeshap

用法

有很多不同的模型和方法可以使用這個(gè)包。在這里,我將以DeepExplainer中的一個(gè)例子為例。

Deep SHAP是深度學(xué)習(xí)模型中SHAP值的一種高速近似算法,它基于與DeepLIFT的連接,如SHAP的NIPS論文所述(https://arxiv.org/abs/1802.03888)。

下面這個(gè)例子可以看到SHAP如何被用來(lái)解釋MNIST數(shù)據(jù)集的Keras模型結(jié)果:

#thisisthecodefromhttps://github.com/keras-team/keras/blob/master/examples/mnist_cnn.pyfrom__future__importprint_functionimportkerasfromkeras.datasetsimportmnistfromkeras.modelsimportSequentialfromkeras.layersimportDense,Dropout,Flattenfromkeras.layersimportConv2D,MaxPooling2DfromkerasimportbackendasKbatch_size=128num_classes=10epochs=12#inputimagedimensionsimg_rows,img_cols=28,28#thedata,splitbetweentrainandtestsets(x_train,y_train),(x_test,y_test)=mnist.load_data()ifK.image_data_format()=='channels_first':x_train=x_train.reshape(x_train.shape[0],1,img_rows,img_cols)x_test=x_test.reshape(x_test.shape[0],1,img_rows,img_cols)input_shape=(1,img_rows,img_cols)else:x_train=x_train.reshape(x_train.shape[0],img_rows,img_cols,1)x_test=x_test.reshape(x_test.shape[0],img_rows,img_cols,1)input_shape=(img_rows,img_cols,1)x_train=x_train.astype('float32')x_test=x_test.astype('float32')x_train/=255x_test/=255print('x_trainshape:',x_train.shape)print(x_train.shape[0],'trainsamples')print(x_test.shape[0],'testsamples')#convertclassvectorstobinaryclassmatricesy_train=keras.utils.to_categorical(y_train,num_classes)y_test=keras.utils.to_categorical(y_test,num_classes)model=Sequential()model.add(Conv2D(32,kernel_size=(3,3),activation='relu',input_shape=input_shape))model.add(Conv2D(64,(3,3),activation='relu'))model.add(MaxPooling2D(pool_size=(2,2)))model.add(Dropout(0.25))model.add(Flatten())model.add(Dense(128,activation='relu'))model.add(Dropout(0.5))model.add(Dense(num_classes,activation='softmax'))model.compile(loss=keras.losses.categorical_crossentropy,optimizer=keras.optimizers.Adadelta(),metrics=['accuracy'])model.fit(x_train,y_train,batch_size=batch_size,epochs=epochs,verbose=1,validation_data=(x_test,y_test))score=model.evaluate(x_test,y_test,verbose=0)print('Testloss:',score[0])print('Testaccuracy:',score[1])

更多示例:

https://github.com/slundberg/shap#sample-notebooks

4. Optimus——使用 Python 和 Spark 輕松實(shí)現(xiàn)敏捷數(shù)據(jù)科學(xué)工作流

https://github.com/ironmussa/Optimus

Optimus V2旨在讓數(shù)據(jù)清理更容易。這個(gè)API的設(shè)計(jì)對(duì)新手來(lái)說(shuō)超級(jí)簡(jiǎn)單,對(duì)使用pandas的人來(lái)說(shuō)也非常熟悉。Optimus擴(kuò)展了Spark DataFrame功能,添加了.rows和.cols屬性。

使用Optimus,你可以以分布式的方式清理數(shù)據(jù)、準(zhǔn)備數(shù)據(jù)、分析數(shù)據(jù)、創(chuàng)建分析器和圖表,并執(zhí)行機(jī)器學(xué)習(xí)和深度學(xué)習(xí),因?yàn)樗暮蠖擞蠸park、TensorFlow和Keras。

Optimus是數(shù)據(jù)科學(xué)敏捷方法的完美工具,因?yàn)樗鼛缀蹩梢詭椭阃瓿烧麄€(gè)過(guò)程的所有步驟,并且可以輕松地連接到其他庫(kù)和工具。

Installation (pip):

pipinstalloptimuspyspark

用法

在這個(gè)示例中,你可以從 URL 加載數(shù)據(jù),對(duì)其進(jìn)行轉(zhuǎn)換,并應(yīng)用一些預(yù)定義的清理功能:

fromoptimusimportOptimusop=Optimus()#Thisisacustomfunctiondeffunc(value,arg):return"thiswasanumber"df=op.load.url("https://raw.githubusercontent.com/ironmussa/Optimus/master/examples/foo.csv")df.rows.sort("product","desc").cols.lower(["firstName","lastName"]).cols.date_transform("birth","new_date","yyyy/MM/dd","dd-MM-YYYY").cols.years_between("birth","years_between","yyyy/MM/dd").cols.remove_accents("lastName").cols.remove_special_chars("lastName").cols.replace("product","taaaccoo","taco").cols.replace("product",["piza","pizzza"],"pizza").rows.drop(df["id"]<7)????.cols.drop("dummyCol")????.cols.rename(str.lower)????.cols.apply_by_dtypes("product",func,"string",?data_type="integer")????.cols.trim("*")????.show()

你可以將這個(gè)表格

轉(zhuǎn)換為這樣:

是不是很酷?這個(gè)庫(kù)還可以做更多事情,具體請(qǐng)閱讀:

https://www.hioptimus.com/

3. spacy——使用Python和Cython的工業(yè)級(jí)自然語(yǔ)言處理

https://spacy.io/

spaCy旨在幫助你完成實(shí)際的工作——構(gòu)建真實(shí)的產(chǎn)品,或收集真實(shí)的見(jiàn)解。這個(gè)庫(kù)尊重你的時(shí)間,盡量避免浪費(fèi)。它易于安裝,而且它的API簡(jiǎn)單而高效。spaCy被視為自然語(yǔ)言處理的Ruby on Rails。

spaCy是為深度學(xué)習(xí)準(zhǔn)備文本的最佳方法。它與TensorFlow、PyTorch、Scikit-learn、Gensim以及Python強(qiáng)大的AI生態(tài)系統(tǒng)的其他部分無(wú)縫交互。使用spaCy,你可以很容易地為各種NLP問(wèn)題構(gòu)建語(yǔ)言復(fù)雜的統(tǒng)計(jì)模型。

安裝

pip3installspacy$python3-mspacydownloaden

這里,我們還下載了英語(yǔ)語(yǔ)言模型。你可以在這里找到德語(yǔ),西班牙語(yǔ),意大利語(yǔ),葡萄牙語(yǔ),法國(guó)語(yǔ)等版本的模型:

https://spacy.io/models/

下面是主頁(yè)面的一個(gè)示例:

#python-mspacydownloaden_core_web_smimportspacy#LoadEnglishtokenizer,tagger,parser,NERandwordvectorsnlp=spacy.load('en_core_web_sm')#Processwholedocumentstext=(u"WhenSebastianThrunstartedworkingonself-drivingcarsat"u"Googlein2007,fewpeopleoutsideofthecompanytookhim"u"seriously.“IcantellyouveryseniorCEOsofmajorAmerican"u"carcompanieswouldshakemyhandandturnawaybecauseIwasn’t"u"worthtalkingto,”saidThrun,nowtheco-founderandCEOof"u"onlinehighereducationstartupUdacity,inaninterviewwith"u"Recodeearlierthisweek.")doc=nlp(text)#Findnamedentities,phrasesandconceptsforentityindoc.ents:print(entity.text,entity.label_)#Determinesemanticsimilaritiesdoc1=nlp(u"myfriesweresupergross")doc2=nlp(u"suchdisgustingfries")similarity=doc1.similarity(doc2)print(doc1.text,doc2.text,similarity)

在這個(gè)示例中,我們首先下載English tokenizer, tagger, parser, NER和word vectors。然后創(chuàng)建一些文本,打印找到的實(shí)體、短語(yǔ)和概念,最后確定兩個(gè)短語(yǔ)的語(yǔ)義相似性。運(yùn)行這段代碼,你會(huì)得到:

SebastianThrunPERSONGoogleORG2007DATEAmericanNORPThrunPERSONRecodeORGearlierthisweekDATEmyfriesweresupergrosssuchdisgustingfries0.7139701635071919

2. jupytext

對(duì)我來(lái)說(shuō),jupytext是年度最佳。幾乎所有人都在像Jupyter這樣的筆記本上工作,但是我們也在項(xiàng)目的更核心部分使用像PyCharm這樣的IDE。

好消息是,你可以在自己喜歡的IDE中起草和測(cè)試普通腳本,在使用Jupytext時(shí)可以將IDE作為notebook在Jupyter中打開(kāi)。在Jupyter中運(yùn)行notebook以生成輸出,關(guān)聯(lián).ipynb表示,并作為普通腳本或傳統(tǒng)Jupyter notebook 進(jìn)行保存和分享。

下圖展示了這個(gè)包的作用:

可點(diǎn)擊下方鏈接查看原文中的GIF展示:

https://heartbeat.fritz.ai/top-7-libraries-and-packages-of-the-year-for-data-science-and-ai-python-r-6b7cca2bf000

安裝

pipinstalljupytext--upgrade

然后,配置Jupyter使用Jupytext:

使用jupyter notebook --generate-config生成Jupyter配置

編輯.jupyter/jupyter_notebook_config.py,并附加以下代碼:

c.NotebookApp.contents_manager_class="jupytext.TextFileContentsManager"

重啟Jupyter,即運(yùn)行:

jupyternotebook

你可以在這里試試:

https://mybinder.org/v2/gh/mwouts/jupytext/master?filepath=demo

1.Chartify?——讓數(shù)據(jù)科學(xué)家很容易創(chuàng)建圖表的Python庫(kù)

https://xkcd.com/1945/

Chartify是Python的年度最佳庫(kù)。

在Python世界中創(chuàng)建一個(gè)像樣的圖很費(fèi)時(shí)間。幸運(yùn)的是,我們有像Seaborn之類(lèi)的庫(kù),但問(wèn)題是他們的plots不是動(dòng)態(tài)的。

然后就出現(xiàn)了Bokeh——這是一個(gè)超棒的庫(kù),但用它來(lái)創(chuàng)造互動(dòng)情節(jié)仍很痛苦。

Chartify建立在Bokeh之上,但它簡(jiǎn)單得多。

Chartify的特性:

一致的輸入數(shù)據(jù)格式:轉(zhuǎn)換數(shù)據(jù)所需的時(shí)間更少。所有繪圖函數(shù)都使用一致、整潔的輸入數(shù)據(jù)格式。

智能默認(rèn)樣式:創(chuàng)建漂亮的圖表,幾乎不需要自定義。

簡(jiǎn)單API:API盡可能直觀和容易學(xué)習(xí)。

靈活性:Chartify是建立在Bokeh之上的,所以如果你需要更多的控制,你可以使用Bokeh的API。

安裝

Chartify可以通過(guò)pip安裝:

pip3installchartify

用法

假設(shè)我們想要?jiǎng)?chuàng)建這個(gè)圖表:

importpandasaspdimportchartify#Generateexampledatadata=chartify.examples.example_data()

現(xiàn)在,我們已經(jīng)加載了一些示例數(shù)據(jù),讓我們來(lái)做一些轉(zhuǎn)換:

total_quantity_by_month_and_fruit=(data.groupby([data['date']+pd.offsets.MonthBegin(-1),'fruit'])['quantity'].sum().reset_index().rename(columns={'date':'month'}).sort_values('month'))print(total_quantity_by_month_and_fruit.head())monthfruitquantity02017-01-01Apple712017-01-01Banana622017-01-01Grape132017-01-01Orange242017-02-01Apple8

現(xiàn)在我們可以把它畫(huà)出來(lái):

#Plotthedatach=chartify.Chart(blank_labels=True,x_axis_type='datetime')ch.set_title("Stackedarea")ch.set_subtitle("Representchangesindistribution.")ch.plot.area(data_frame=total_quantity_by_month_and_fruit,x_column='month',y_column='quantity',color_column='fruit',stacked=True)ch.show('png')

超級(jí)容易創(chuàng)建一個(gè)互動(dòng)的plot。

更多示例:

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:必備!人工智能和數(shù)據(jù)科學(xué)的七大 Python 庫(kù)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    ?如何在虛擬環(huán)境中使用 Python,提升你的開(kāi)發(fā)體驗(yàn)~

    。RaspberryPiOS預(yù)裝了Python3。干擾系統(tǒng)Python的安裝可能會(huì)給你的操作系統(tǒng)帶來(lái)問(wèn)題。安裝第三方Python庫(kù)時(shí),請(qǐng)務(wù)必使用正確的包管理工具。在Lin
    的頭像 發(fā)表于 03-25 09:34 ?323次閱讀
    ?如何在虛擬環(huán)境中使用 <b class='flag-5'>Python</b>,提升你的開(kāi)發(fā)體驗(yàn)~

    Python Connector for InterBase連接解決方案

    適用于 InterBase 的 Python 連接器 Python Connector for InterBase 是一種可靠的連接解決方案,用于從 Python 應(yīng)用程序訪(fǎng)問(wèn) InterBase
    的頭像 發(fā)表于 01-22 14:34 ?441次閱讀

    使用Python實(shí)現(xiàn)xgboost教程

    裝: bash復(fù)制代碼conda install -c conda-forge xgboost 2. 導(dǎo)入必要的庫(kù) 在你的Python腳本或Jupyter Notebook中,導(dǎo)入必要的庫(kù)
    的頭像 發(fā)表于 01-19 11:21 ?1352次閱讀

    適用于MySQL和MariaDB的Python連接器:可靠的MySQL數(shù)據(jù)連接器和數(shù)據(jù)庫(kù)

    和 MariaDB 數(shù)據(jù)庫(kù)服務(wù)器以及托管數(shù)據(jù)庫(kù)服務(wù),以對(duì)存儲(chǔ)的數(shù)據(jù)執(zhí)行創(chuàng)建、讀取、更新和刪除操作。該解決方案完全實(shí)現(xiàn)了 Python DB API 2.0 規(guī)范,并作為 Windows、macOS
    的頭像 發(fā)表于 01-17 12:18 ?485次閱讀
    適用于MySQL和MariaDB的<b class='flag-5'>Python</b>連接器:可靠的MySQL數(shù)據(jù)連接器和數(shù)據(jù)<b class='flag-5'>庫(kù)</b>

    適用于Oracle的Python連接器:可訪(fǎng)問(wèn)托管以及非托管的數(shù)據(jù)庫(kù)

    適用于 Oracle 的 Python 連接器 適用于 Oracle 的 Python 連接器是一種可靠的連接解決方案,用于從 Python 應(yīng)用程序訪(fǎng)問(wèn) Oracle 數(shù)據(jù)庫(kù)服務(wù)器和
    的頭像 發(fā)表于 01-14 10:30 ?461次閱讀

    數(shù)據(jù)庫(kù)事件觸發(fā)的設(shè)置和應(yīng)用

    數(shù)據(jù)庫(kù)無(wú)論對(duì)于生產(chǎn)管理還是很多的實(shí)際應(yīng)用都非常重要。小編這次聊一下數(shù)據(jù)庫(kù)事件觸發(fā)的應(yīng)用。示例使用了postgresql和Python
    的頭像 發(fā)表于 12-13 15:14 ?625次閱讀

    使用Python進(jìn)行串口通信的案例

    當(dāng)然!以下是一個(gè)使用Python進(jìn)行串口通信的簡(jiǎn)單示例。這個(gè)示例展示了如何配置串口、發(fā)送數(shù)據(jù)以及接收數(shù)據(jù)。我們將使用 pyserial 庫(kù),這是一個(gè)非常流行的用于串口通信的Python庫(kù)
    的頭像 發(fā)表于 11-22 09:11 ?1439次閱讀

    如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型

    構(gòu)建一個(gè)LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)模型是一個(gè)涉及多個(gè)步驟的過(guò)程。以下是使用Python和Keras庫(kù)構(gòu)建LSTM模型的指南。 1. 安裝必要的庫(kù) 首先,確保你已經(jīng)安裝了Python
    的頭像 發(fā)表于 11-13 10:10 ?1558次閱讀

    Python庫(kù)解析:通過(guò)庫(kù)實(shí)現(xiàn)代理請(qǐng)求與數(shù)據(jù)抓取

    Python中,有多個(gè)庫(kù)可以幫助你實(shí)現(xiàn)代理請(qǐng)求和數(shù)據(jù)抓取。這些庫(kù)提供了豐富的功能和靈活的API,使得你可以輕松地發(fā)送HTTP請(qǐng)求、處理響應(yīng)、解析HTML/XML/JSON數(shù)據(jù),以及進(jìn)行復(fù)雜的網(wǎng)絡(luò)操作。
    的頭像 發(fā)表于 10-24 07:54 ?482次閱讀

    如何利用python和API查詢(xún)IP地址?

    (但請(qǐng)注意,對(duì)于生產(chǎn)環(huán)境或高頻查詢(xún),最好使用帶密鑰的服務(wù)以獲取更好的性能和安全性)。首先,確保安裝了requests庫(kù):pip install requests然后,您可以使用以下Python代碼來(lái)
    發(fā)表于 08-28 11:55

    使用labview調(diào)用python運(yùn)行一段時(shí)間后,報(bào)錯(cuò)

    使用labview調(diào)用python運(yùn)行一段時(shí)間后,報(bào)錯(cuò)。 labview版本:2018*64; python:3.6x64 怎么解決~
    發(fā)表于 08-26 10:16

    pytorch和python的關(guān)系是什么

    在當(dāng)今的人工智能領(lǐng)域,Python已經(jīng)成為了最受歡迎的編程語(yǔ)言之一。Python的易學(xué)易用、豐富的庫(kù)和框架以及強(qiáng)大的社區(qū)支持,使其成為了數(shù)據(jù)科學(xué)、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等領(lǐng)域的首選語(yǔ)言。而在深度學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 08-01 15:27 ?3265次閱讀

    Python建模算法與應(yīng)用

    上成為理想的腳本語(yǔ)言,特別適用于快速的應(yīng)用程序開(kāi)發(fā)。本文將詳細(xì)介紹Python在建模算法中的應(yīng)用,包括常見(jiàn)的建模算法、Python在建模中的優(yōu)勢(shì)、常用庫(kù)以及實(shí)際案例。
    的頭像 發(fā)表于 07-24 10:41 ?1241次閱讀

    S7-200指令庫(kù)

    S7-200庫(kù)文件是西門(mén)子旗下同款編程軟件的可調(diào)用數(shù)據(jù)庫(kù),可安裝也可直接覆蓋進(jìn)行使用。常用的數(shù)據(jù)庫(kù),簡(jiǎn)便方便調(diào)用。在PLC中調(diào)試中節(jié)省時(shí)間。
    發(fā)表于 07-23 12:29 ?7次下載

    opencv-python和opencv一樣嗎

    不一樣。OpenCV(Open Source Computer Vision Library)是一個(gè)開(kāi)源的計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)軟件庫(kù),它提供了大量的圖像和視頻處理功能。OpenCV-Python
    的頭像 發(fā)表于 07-16 10:38 ?2071次閱讀