本節(jié)顯示包中的類和函數(shù)(按字母順序排序)d2l
,顯示它們在書中的定義位置,以便您可以找到更詳細的實現(xiàn)和解釋。另請參閱GitHub 存儲庫中的源代碼。
23.8.1。班級
- d2l.torch類 。AdditiveAttention ( num_hiddens , dropout , ** kwargs )[來源]
-
基地:
Module
額外的關(guān)注。
- 轉(zhuǎn)發(fā)(查詢、鍵、值、 valid_lens)[來源]
-
定義每次調(diào)用時執(zhí)行的計算。
應(yīng)該被所有子類覆蓋。
筆記
盡管前向傳遞的配方需要在此函數(shù)中定義,但應(yīng)該
Module
在之后調(diào)用實例而不是這個,因為前者負責(zé)運行已注冊的鉤子,而后者默默地忽略它們。
- 培訓(xùn):布爾
- ?
- d2l.torch類 。AddNorm ( norm_shape , dropout )[來源]
-
基地:
Module
殘差連接之后是層歸一化。
- 向前( X , Y )[來源]
-
定義每次調(diào)用時執(zhí)行的計算。
應(yīng)該被所有子類覆蓋。
筆記
盡管前向傳遞的配方需要在此函數(shù)中定義,但應(yīng)該
Module
在之后調(diào)用實例而不是這個,因為前者負責(zé)運行已注冊的鉤子,而后者默默地忽略它們。
- 培訓(xùn):布爾
- ?
- d2l.torch類 。分類器(plot_train_per_epoch = 2, plot_valid_per_epoch = 1)[來源]
-
基地:
Module
分類模型的基類。
- 準確性(Y_hat, Y,平均= True)[來源]
-
計算正確預(yù)測的數(shù)量。
- layer_summary ( X_shape )[來源]
- 損失( Y_hat , Y ,平均= True )[來源]
- 培訓(xùn):布爾
- ?
- 驗證步驟(批處理)[來源]
- ?
- d2l.torch類 。DataModule ( root = '../data' , num_workers = 4 )[來源]
-
數(shù)據(jù)的基類。
- get_dataloader(火車)[來源]
- ?
- get_tensorloader(張量,火車,指數(shù)=切片(0, 無, 無))[來源]
- 火車數(shù)據(jù)加載器()[來源]
- ?
- val_dataloader ( )[來源]
- ?
評論