1.
バッチ正規化のトレーニング時と推論時の挙動の違いは何ですか?
2.
バッチ正規化が勾配消失問題に与える影響は何ですか?
3.
バッチ正規化層が適用されるタイミングはどの部分ですか?
4.
グループ正規化(Group Normalization)がバッチサイズの制約を受けずに学習できる理由として適切な説明はどれですか?
5.
バッチ正規化層が特に効果を発揮するのはどのような場面ですか?
6.
正規化層が勾配爆発問題を防ぐ仕組みとして適切なのはどれですか?
7.
正規化層の追加によって、学習速度が向上する理由は何ですか?
8.
正規化層の使用が特に重要となるのはどのようなモデルですか?
9.
正規化層を使用することで、モデルの一般化性能にどのような影響がありますか?
10.
バッチ正規化を使用した場合、アクティベーション関数にReLUを選ぶ理由は何ですか?
11.
バッチ正規化が過学習に対して有効でない場合に使用する正規化手法は何ですか?
12.
インスタンス正規化(Instance Normalization)が、画像スタイル変換タスクに適している理由はどれですか?
13.
ドロップアウトと正規化層を併用するメリットは何ですか?
14.
グループ正規化がバッチ正規化に対して有効な理由は何ですか?
15.
バッチ正規化における「ガンマ(γ)」と「ベータ(β)」の役割は何ですか?
16.
レイヤーノーマライゼーションがバッチ正規化に比べて有利となる場面はどのようなケースですか?
18.
レイヤーノーマライゼーション(Layer Normalization)とバッチ正規化の違いは何ですか?
19.
バッチ正規化(Batch Normalization)を使用する主な利点は何ですか?
20.
バッチ正規化を使用することで、学習率を大きく設定できる理由は次のうちどれですか?
21.
バッチ正規化が適用されることで、モデルの収束が速くなる理由は何ですか?
22.
グループ正規化(Group Normalization)の利点は何ですか?
23.
Layer Normalization(層正規化)が自然言語処理(NLP)タスクにおいて効果的な理由として最も適切なものはどれですか?
24.
正規化層が過剰な情報損失を引き起こす可能性がある場合、その影響を緩和するために適切な対策はどれですか?
25.
ドロップアウト層と正規化層の違いは何ですか?
26.
バッチ正規化を適用することで、学習率がどのように影響されますか?