索引
search
クイック検索
PDF
ノートブック
GitHub
English
中文版
Table Of Contents
序文
インストール
記法
1. はじめに
2. 深層学習(ディープラーニング)の前提知識:数学とプログラミング
2.1. データ操作
2.2. データ前処理
2.3. 線形代数
2.4. 微分積分
2.5. 自動微分
2.6. 確率と統計
2.7. ドキュメント
3. 回帰のための線形ニューラルネットワーク
3.1. 線形回帰(Linear Regression)とは
3.2. 実装のためのオブジェクト指向設計(Object-Oriented Design)とは
3.3. 合成回帰データ
3.4. 線形回帰のスクラッチ実装
3.5. 線形回帰の簡潔な実装
3.6. 汎化
3.7. 重み減衰(Weight Decay)とは
4. 分類のための線形ニューラルネットワーク(Softmax回帰)とは
4.1. ソフトマックス回帰(Softmax Regression)とは
4.2. 画像分類データセット(Fashion-MNISTの読み込みと実践)
4.3. 分類の基礎モデル
4.4. スクラッチからのソフトマックス回帰の実装
4.5. Softmax回帰の簡潔な実装
4.6. 分類における汎化
4.7. 環境と分布シフト
5. 多層パーセプトロン(MLP)とは:深層学習の基礎構造
5.1. 多層パーセプトロン(MLP)とは
5.2. 多層パーセプトロンの実装
5.3. 順伝播、逆伝播、および計算グラフ
5.4. 数値安定性と初期化
5.5. ディープラーニングにおける汎化
5.6. ドロップアウト(Dropout)とは
5.7. Kaggleで住宅価格を予測する
6. ビルダーのためのガイド
6.1. 層とモジュール
6.2. パラメータ管理
6.3. パラメータの初期化
6.4. 遅延初期化
6.5. カスタム層
6.6. ファイル入出力
6.7. GPU
7. 畳み込みニューラルネットワーク(CNN)とは:基礎から応用まで
7.1. 畳み込みニューラルネットワーク(CNN)とは:全結合層から畳み込みへ
7.2. 画像のための畳み込み
7.3. パディングとストライド
7.4. 複数入力チャネルと複数出力チャネル
7.5. プーリング(Pooling)層とは
7.6. 畳み込みニューラルネットワーク(LeNet)
8. 現代的な畳み込みニューラルネットワーク(Modern CNN)とは
8.1. 畳み込み深層ニューラルネットワーク(AlexNet)とは
8.2. VGG(VGGNet)とは:ブロック構造による深層化
8.3. Network in Network(NiN)とは
8.4. GoogLeNet(マルチブランチネットワーク)とは
8.5. バッチ正規化
8.6. 残差ネットワーク(ResNet)とResNeXtとは
8.7. 密に接続されたネットワーク(DenseNet)とは
8.8. 畳み込みネットワークのアーキテクチャ設計
9. 再帰型ニューラルネットワーク(RNN)とは:時系列データの学習
9.1. シーケンスの扱い
9.2. 生テキストを系列データに変換する
9.3. 言語モデル
9.4. 再帰型ニューラルネットワーク
9.5. ゼロからの再帰ニューラルネットワークの実装
9.6. リカレントニューラルネットワークの簡潔な実装
9.7. 時間を通した逆伝播(BPTT)とは
10. 現代的な再帰型ニューラルネットワーク
10.1. 長短期記憶(LSTM)とは
10.2. ゲート付き再帰ユニット(GRU)とは
10.3. 深層再帰ニューラルネットワーク
10.4. 双方向リカレントニューラルネットワーク
10.5. 機械翻訳とデータセット
10.6. エンコーダ–デコーダアーキテクチャ
10.7. シーケンス・ツー・シーケンス(Seq2Seq)とは:機械翻訳の実践
10.8. ビームサーチ(Beam Search)とは:生成モデルの推論アルゴリズム
11. 注意機構(Attention)とTransformer(トランスフォーマー)とは
11.1. クエリ、キー、値
11.2. 類似度によるアテンションプーリング
11.3. アテンションのスコアリング関数
11.4. バーダナウ注意機構
11.5. マルチヘッドアテンション(Multi-Head Attention)とは
11.6. 自己注意機構(Self-Attention)と位置エンコーディングとは
11.7. Transformer(トランスフォーマー)とは:アーキテクチャの解説
11.8. 画像向けTransformer(Vision Transformer: ViT)とは
11.9. Transformerによる大規模事前学習
12. 深層学習の最適化アルゴリズム(Optimization Algorithms)とは
12.1. 最適化と深層学習
12.2. 凸性
12.3. 勾配降下法
12.4. 確率的勾配降下法(SGD)とは
12.5. ミニバッチ確率的勾配降下法
12.6. モメンタム(Momentum)とは
12.7. Adagrad
12.8. RMSProp
12.9. Adadelta
12.10. Adam(Adaptive Moment Estimation)とは
12.11. 学習率スケジューリング
13. 計算性能
13.1. コンパイラとインタプリタ
13.2. 非同期計算
13.3. 自動並列化
13.4. ハードウェア
13.5. 複数GPUでの学習
13.6. 複数GPUのための簡潔な実装
13.7. パラメータサーバー
14. コンピュータビジョン(Computer Vision)とは:深層学習による画像解析
14.1. 画像拡張
14.2. ファインチューニング(Fine-tuning)とは:転移学習の実践
14.3. 物体検出とバウンディングボックス
14.4. アンカーボックスとは
14.5. マルチスケール物体検出
14.6. 物体検出データセット
14.7. SSD(Single Shot MultiBox Detector)とは:物体検出の基礎
14.8. 領域ベースのCNN(R-CNN)
14.9. セマンティックセグメンテーションとデータセット
14.10. 転置畳み込み
14.11. FCN(完全畳み込みネットワーク)とは:セマンティックセグメンテーション
14.12. ニューラル・スタイル変換
14.13. Kaggle における画像分類(CIFAR-10)
14.14. Kaggle における犬種識別(ImageNet Dogs)
15. 自然言語処理(NLP)の事前学習とは:Word2VecからBERTまで
15.1. 単語埋め込み(Word Embedding)とは:word2vecの基礎
15.2. 近似学習
15.3. 単語埋め込みの事前学習のためのデータセット
15.4. word2vec の事前学習
15.5. GloVe(Global Vectors for Word Representation)とは
15.6. サブワード埋め込み
15.7. 単語の類似性とアナロジー
15.8. BERT(Bidirectional Encoder Representations from Transformers)とは
15.9. BERTの事前学習のためのデータセット
15.10. BERTの事前学習
16. 自然言語処理(NLP)の応用とは:感情分析からBERTの活用まで
16.1. 感情分析とデータセット
16.2. 感情分析: 再帰型ニューラルネットワークの使用
16.3. 畳み込みニューラルネットワークを用いた感情分析
16.4. 自然言語推論とデータセット
16.5. 自然言語推論: Attention の利用
16.6. 系列レベルおよびトークンレベルのアプリケーションのための BERT のファインチューニング
16.7. 自然言語推論: BERTのファインチューニング
17. 強化学習(Reinforcement Learning)とは:基礎理論と実装
17.1. マルコフ決定過程(MDP)
17.2. 値反復
17.3. Q学習
18. ガウス過程
18.1. ガウス過程入門
18.2. ガウス過程(Gaussian Process)の事前分布とは
18.3. ガウス過程推論
19. ハイパーパラメータ最適化
19.1. ハイパーパラメータ最適化とは何か?
19.2. ハイパーパラメータ最適化 API
19.3. 非同期ランダムサーチ
19.4. マルチフィデリティ・ハイパーパラメータ最適化
19.5. 非同期逐次半減法
20. 敵対的生成ネットワーク(GAN)とは:基礎と応用
20.1. 敵対的生成ネットワーク(GAN)
20.2. DCGAN(Deep Convolutional GAN)とは:画像生成の実践
21. レコメンデーションシステム
21.1. レコメンダーシステムの概要
21.2. MovieLens データセット
21.3. 行列分解
21.4. AutoRec: オートエンコーダによるレーティング予測
21.5. レコメンダシステムのための個人化ランキング
21.6. パーソナライズドランキングのためのニューラル協調フィルタリング
21.7. シーケンスを考慮した推薦システム
21.8. 特徴豊富な推薦システム
21.9. 因子分解機
21.10. 深層因子分解機械
22. 付録: 深層学習のための数学
22.1. 幾何と線形代数的操作
22.2. 固有分解
22.3. 単変数微積分
22.4. 多変数微積分
22.5. 積分計算
22.6. 確率変数
22.7. 最尤推定
22.8. 分布
22.9. ナイーブベイズ
22.10. 統計学
22.11. 情報理論
23. 付録: ディープラーニングのためのツール
23.1. Jupyter Notebook の使用
23.2. Amazon SageMaker の使用
23.3. AWS EC2 インスタンスの使用
23.4. Google Colab を使う
23.5. 深層学習(ディープラーニング)向けサーバーとGPUの選び方
23.6. この本への貢献
23.7. ユーティリティ(Utility)関数とクラスとは
23.8.
d2l
API ドキュメント
参考文献
Table Of Contents
序文
インストール
記法
1. はじめに
2. 深層学習(ディープラーニング)の前提知識:数学とプログラミング
2.1. データ操作
2.2. データ前処理
2.3. 線形代数
2.4. 微分積分
2.5. 自動微分
2.6. 確率と統計
2.7. ドキュメント
3. 回帰のための線形ニューラルネットワーク
3.1. 線形回帰(Linear Regression)とは
3.2. 実装のためのオブジェクト指向設計(Object-Oriented Design)とは
3.3. 合成回帰データ
3.4. 線形回帰のスクラッチ実装
3.5. 線形回帰の簡潔な実装
3.6. 汎化
3.7. 重み減衰(Weight Decay)とは
4. 分類のための線形ニューラルネットワーク(Softmax回帰)とは
4.1. ソフトマックス回帰(Softmax Regression)とは
4.2. 画像分類データセット(Fashion-MNISTの読み込みと実践)
4.3. 分類の基礎モデル
4.4. スクラッチからのソフトマックス回帰の実装
4.5. Softmax回帰の簡潔な実装
4.6. 分類における汎化
4.7. 環境と分布シフト
5. 多層パーセプトロン(MLP)とは:深層学習の基礎構造
5.1. 多層パーセプトロン(MLP)とは
5.2. 多層パーセプトロンの実装
5.3. 順伝播、逆伝播、および計算グラフ
5.4. 数値安定性と初期化
5.5. ディープラーニングにおける汎化
5.6. ドロップアウト(Dropout)とは
5.7. Kaggleで住宅価格を予測する
6. ビルダーのためのガイド
6.1. 層とモジュール
6.2. パラメータ管理
6.3. パラメータの初期化
6.4. 遅延初期化
6.5. カスタム層
6.6. ファイル入出力
6.7. GPU
7. 畳み込みニューラルネットワーク(CNN)とは:基礎から応用まで
7.1. 畳み込みニューラルネットワーク(CNN)とは:全結合層から畳み込みへ
7.2. 画像のための畳み込み
7.3. パディングとストライド
7.4. 複数入力チャネルと複数出力チャネル
7.5. プーリング(Pooling)層とは
7.6. 畳み込みニューラルネットワーク(LeNet)
8. 現代的な畳み込みニューラルネットワーク(Modern CNN)とは
8.1. 畳み込み深層ニューラルネットワーク(AlexNet)とは
8.2. VGG(VGGNet)とは:ブロック構造による深層化
8.3. Network in Network(NiN)とは
8.4. GoogLeNet(マルチブランチネットワーク)とは
8.5. バッチ正規化
8.6. 残差ネットワーク(ResNet)とResNeXtとは
8.7. 密に接続されたネットワーク(DenseNet)とは
8.8. 畳み込みネットワークのアーキテクチャ設計
9. 再帰型ニューラルネットワーク(RNN)とは:時系列データの学習
9.1. シーケンスの扱い
9.2. 生テキストを系列データに変換する
9.3. 言語モデル
9.4. 再帰型ニューラルネットワーク
9.5. ゼロからの再帰ニューラルネットワークの実装
9.6. リカレントニューラルネットワークの簡潔な実装
9.7. 時間を通した逆伝播(BPTT)とは
10. 現代的な再帰型ニューラルネットワーク
10.1. 長短期記憶(LSTM)とは
10.2. ゲート付き再帰ユニット(GRU)とは
10.3. 深層再帰ニューラルネットワーク
10.4. 双方向リカレントニューラルネットワーク
10.5. 機械翻訳とデータセット
10.6. エンコーダ–デコーダアーキテクチャ
10.7. シーケンス・ツー・シーケンス(Seq2Seq)とは:機械翻訳の実践
10.8. ビームサーチ(Beam Search)とは:生成モデルの推論アルゴリズム
11. 注意機構(Attention)とTransformer(トランスフォーマー)とは
11.1. クエリ、キー、値
11.2. 類似度によるアテンションプーリング
11.3. アテンションのスコアリング関数
11.4. バーダナウ注意機構
11.5. マルチヘッドアテンション(Multi-Head Attention)とは
11.6. 自己注意機構(Self-Attention)と位置エンコーディングとは
11.7. Transformer(トランスフォーマー)とは:アーキテクチャの解説
11.8. 画像向けTransformer(Vision Transformer: ViT)とは
11.9. Transformerによる大規模事前学習
12. 深層学習の最適化アルゴリズム(Optimization Algorithms)とは
12.1. 最適化と深層学習
12.2. 凸性
12.3. 勾配降下法
12.4. 確率的勾配降下法(SGD)とは
12.5. ミニバッチ確率的勾配降下法
12.6. モメンタム(Momentum)とは
12.7. Adagrad
12.8. RMSProp
12.9. Adadelta
12.10. Adam(Adaptive Moment Estimation)とは
12.11. 学習率スケジューリング
13. 計算性能
13.1. コンパイラとインタプリタ
13.2. 非同期計算
13.3. 自動並列化
13.4. ハードウェア
13.5. 複数GPUでの学習
13.6. 複数GPUのための簡潔な実装
13.7. パラメータサーバー
14. コンピュータビジョン(Computer Vision)とは:深層学習による画像解析
14.1. 画像拡張
14.2. ファインチューニング(Fine-tuning)とは:転移学習の実践
14.3. 物体検出とバウンディングボックス
14.4. アンカーボックスとは
14.5. マルチスケール物体検出
14.6. 物体検出データセット
14.7. SSD(Single Shot MultiBox Detector)とは:物体検出の基礎
14.8. 領域ベースのCNN(R-CNN)
14.9. セマンティックセグメンテーションとデータセット
14.10. 転置畳み込み
14.11. FCN(完全畳み込みネットワーク)とは:セマンティックセグメンテーション
14.12. ニューラル・スタイル変換
14.13. Kaggle における画像分類(CIFAR-10)
14.14. Kaggle における犬種識別(ImageNet Dogs)
15. 自然言語処理(NLP)の事前学習とは:Word2VecからBERTまで
15.1. 単語埋め込み(Word Embedding)とは:word2vecの基礎
15.2. 近似学習
15.3. 単語埋め込みの事前学習のためのデータセット
15.4. word2vec の事前学習
15.5. GloVe(Global Vectors for Word Representation)とは
15.6. サブワード埋め込み
15.7. 単語の類似性とアナロジー
15.8. BERT(Bidirectional Encoder Representations from Transformers)とは
15.9. BERTの事前学習のためのデータセット
15.10. BERTの事前学習
16. 自然言語処理(NLP)の応用とは:感情分析からBERTの活用まで
16.1. 感情分析とデータセット
16.2. 感情分析: 再帰型ニューラルネットワークの使用
16.3. 畳み込みニューラルネットワークを用いた感情分析
16.4. 自然言語推論とデータセット
16.5. 自然言語推論: Attention の利用
16.6. 系列レベルおよびトークンレベルのアプリケーションのための BERT のファインチューニング
16.7. 自然言語推論: BERTのファインチューニング
17. 強化学習(Reinforcement Learning)とは:基礎理論と実装
17.1. マルコフ決定過程(MDP)
17.2. 値反復
17.3. Q学習
18. ガウス過程
18.1. ガウス過程入門
18.2. ガウス過程(Gaussian Process)の事前分布とは
18.3. ガウス過程推論
19. ハイパーパラメータ最適化
19.1. ハイパーパラメータ最適化とは何か?
19.2. ハイパーパラメータ最適化 API
19.3. 非同期ランダムサーチ
19.4. マルチフィデリティ・ハイパーパラメータ最適化
19.5. 非同期逐次半減法
20. 敵対的生成ネットワーク(GAN)とは:基礎と応用
20.1. 敵対的生成ネットワーク(GAN)
20.2. DCGAN(Deep Convolutional GAN)とは:画像生成の実践
21. レコメンデーションシステム
21.1. レコメンダーシステムの概要
21.2. MovieLens データセット
21.3. 行列分解
21.4. AutoRec: オートエンコーダによるレーティング予測
21.5. レコメンダシステムのための個人化ランキング
21.6. パーソナライズドランキングのためのニューラル協調フィルタリング
21.7. シーケンスを考慮した推薦システム
21.8. 特徴豊富な推薦システム
21.9. 因子分解機
21.10. 深層因子分解機械
22. 付録: 深層学習のための数学
22.1. 幾何と線形代数的操作
22.2. 固有分解
22.3. 単変数微積分
22.4. 多変数微積分
22.5. 積分計算
22.6. 確率変数
22.7. 最尤推定
22.8. 分布
22.9. ナイーブベイズ
22.10. 統計学
22.11. 情報理論
23. 付録: ディープラーニングのためのツール
23.1. Jupyter Notebook の使用
23.2. Amazon SageMaker の使用
23.3. AWS EC2 インスタンスの使用
23.4. Google Colab を使う
23.5. 深層学習(ディープラーニング)向けサーバーとGPUの選び方
23.6. この本への貢献
23.7. ユーティリティ(Utility)関数とクラスとは
23.8.
d2l
API ドキュメント
参考文献
索引
A
|
B
|
C
|
D
|
E
|
F
|
G
|
H
|
I
|
L
|
M
|
N
|
O
|
P
|
R
|
S
|
T
|
U
|
V
|
Z
A
accuracy() (d2l.torch.Classifier のメソッド)
add_to_class() (d2l.torch モジュール)
AdditiveAttention (d2l.torch のクラス)
AddNorm (d2l.torch のクラス)
apply_init() (d2l.torch.Module のメソッド)
attention_weights (d2l.torch.AttentionDecoder のプロパティ)
AttentionDecoder (d2l.torch のクラス)
B
bleu() (d2l.torch モジュール)
build() (d2l.torch.MTFraEng のメソッド)
(d2l.torch.TimeMachine のメソッド)
C
check_len() (d2l.torch モジュール)
check_shape() (d2l.torch モジュール)
Classifier (d2l.torch のクラス)
clip_gradients() (d2l.torch.Trainer のメソッド)
configure_optimizers() (d2l.torch.LinearRegression のメソッド)
(d2l.torch.LinearRegressionScratch のメソッド)
(d2l.torch.Module のメソッド)
(d2l.torch.Seq2Seq のメソッド)
corr2d() (d2l.torch モジュール)
cpu() (d2l.torch モジュール)
D
DataModule (d2l.torch のクラス)
Decoder (d2l.torch のクラス)
DotProductAttention (d2l.torch のクラス)
draw() (d2l.torch.ProgressBoard のメソッド)
E
Encoder (d2l.torch のクラス)
EncoderDecoder (d2l.torch のクラス)
F
FashionMNIST (d2l.torch のクラス)
fit() (d2l.torch.Trainer のメソッド)
fit_epoch() (d2l.torch.Trainer のメソッド)
forward() (d2l.torch.AdditiveAttention のメソッド)
(d2l.torch.AddNorm のメソッド)
(d2l.torch.Decoder のメソッド)
(d2l.torch.DotProductAttention のメソッド)
(d2l.torch.Encoder のメソッド)
(d2l.torch.EncoderDecoder のメソッド)
(d2l.torch.LinearRegression のメソッド)
(d2l.torch.LinearRegressionScratch のメソッド)
(d2l.torch.Module のメソッド)
(d2l.torch.MultiHeadAttention のメソッド)
(d2l.torch.PositionalEncoding のメソッド)
(d2l.torch.PositionWiseFFN のメソッド)
(d2l.torch.Residual のメソッド)
(d2l.torch.ResNeXtBlock のメソッド)
(d2l.torch.RNN のメソッド)
(d2l.torch.RNNLMScratch のメソッド)
(d2l.torch.RNNScratch のメソッド)
(d2l.torch.Seq2SeqEncoder のメソッド)
(d2l.torch.SoftmaxRegression のメソッド)
(d2l.torch.TransformerEncoder のメソッド)
(d2l.torch.TransformerEncoderBlock のメソッド)
G
get_dataloader() (d2l.torch.DataModule のメソッド)
(d2l.torch.FashionMNIST のメソッド)
(d2l.torch.MTFraEng のメソッド)
(d2l.torch.SyntheticRegressionData のメソッド)
(d2l.torch.TimeMachine のメソッド)
get_tensorloader() (d2l.torch.DataModule のメソッド)
get_w_b() (d2l.torch.LinearRegression のメソッド)
gpu() (d2l.torch モジュール)
GRU (d2l.torch のクラス)
H
HyperParameters (d2l.torch のクラス)
I
init_cnn() (d2l.torch モジュール)
init_params() (d2l.torch.RNNLM のメソッド)
(d2l.torch.RNNLMScratch のメソッド)
init_seq2seq() (d2l.torch モジュール)
init_state() (d2l.torch.Decoder のメソッド)
L
layer_summary() (d2l.torch.Classifier のメソッド)
LeNet (d2l.torch のクラス)
LinearRegression (d2l.torch のクラス)
LinearRegressionScratch (d2l.torch のクラス)
loss() (d2l.torch.Classifier のメソッド)
(d2l.torch.LinearRegression のメソッド)
(d2l.torch.LinearRegressionScratch のメソッド)
(d2l.torch.Module のメソッド)
M
masked_softmax() (d2l.torch モジュール)
Module (d2l.torch のクラス)
MTFraEng (d2l.torch のクラス)
MultiHeadAttention (d2l.torch のクラス)
N
num_gpus() (d2l.torch モジュール)
O
one_hot() (d2l.torch.RNNLMScratch のメソッド)
output_layer() (d2l.torch.RNNLM のメソッド)
(d2l.torch.RNNLMScratch のメソッド)
P
plot() (d2l.torch モジュール)
(d2l.torch.Module のメソッド)
PositionalEncoding (d2l.torch のクラス)
PositionWiseFFN (d2l.torch のクラス)
predict() (d2l.torch.RNNLMScratch のメソッド)
predict_step() (d2l.torch.EncoderDecoder のメソッド)
prepare_batch() (d2l.torch.Trainer のメソッド)
prepare_data() (d2l.torch.Trainer のメソッド)
prepare_model() (d2l.torch.Trainer のメソッド)
ProgressBoard (d2l.torch のクラス)
R
Residual (d2l.torch のクラス)
ResNeXtBlock (d2l.torch のクラス)
RNN (d2l.torch のクラス)
RNNLM (d2l.torch のクラス)
RNNLMScratch (d2l.torch のクラス)
RNNScratch (d2l.torch のクラス)
S
save_hyperparameters() (d2l.torch.HyperParameters のメソッド)
Seq2Seq (d2l.torch のクラス)
Seq2SeqEncoder (d2l.torch のクラス)
set_axes() (d2l.torch モジュール)
set_figsize() (d2l.torch モジュール)
SGD (d2l.torch のクラス)
show_heatmaps() (d2l.torch モジュール)
show_list_len_pair_hist() (d2l.torch モジュール)
SoftmaxRegression (d2l.torch のクラス)
step() (d2l.torch.SGD のメソッド)
SyntheticRegressionData (d2l.torch のクラス)
T
text_labels() (d2l.torch.FashionMNIST のメソッド)
TimeMachine (d2l.torch のクラス)
to_tokens() (d2l.torch.Vocab のメソッド)
train_dataloader() (d2l.torch.DataModule のメソッド)
Trainer (d2l.torch のクラス)
training_step() (d2l.torch.Module のメソッド)
(d2l.torch.RNNLMScratch のメソッド)
TransformerEncoder (d2l.torch のクラス)
TransformerEncoderBlock (d2l.torch のクラス)
transpose_output() (d2l.torch.MultiHeadAttention のメソッド)
transpose_qkv() (d2l.torch.MultiHeadAttention のメソッド)
try_all_gpus() (d2l.torch モジュール)
try_gpu() (d2l.torch モジュール)
U
unk (d2l.torch.Vocab のプロパティ)
use_svg_display() (d2l.torch モジュール)
V
val_dataloader() (d2l.torch.DataModule のメソッド)
validation_step() (d2l.torch.Classifier のメソッド)
(d2l.torch.Module のメソッド)
(d2l.torch.RNNLMScratch のメソッド)
(d2l.torch.Seq2Seq のメソッド)
visualize() (d2l.torch.FashionMNIST のメソッド)
Vocab (d2l.torch のクラス)
Z
zero_grad() (d2l.torch.SGD のメソッド)