セクション 3. 章 5
single
Challenge: Integrate Dropout and BatchNorm
メニューを表示するにはスワイプしてください
タスク
スワイプしてコーディングを開始
You will extend a simple neural network by integrating Dropout and Batch Normalization. Your goal is to correctly insert these layers into the architecture and perform a forward pass.
You are given:
- Input batch
x - A partially defined network class
- A forward method missing some components
Complete the following steps:
-
Add a Dropout layer after the first fully connected layer.
-
Add a BatchNorm layer immediately after Dropout.
-
Complete the forward pass so that the data flows through:
- Linear → ReLU → Dropout → BatchNorm → Linear
-
Ensure Dropout is used only during training (PyTorch handles this automatically).
After execution, the script prints the network output.
解答
すべて明確でしたか?
フィードバックありがとうございます!
セクション 3. 章 5
single
AIに質問する
AIに質問する
何でも質問するか、提案された質問の1つを試してチャットを始めてください