1.
「重み減衰(Weight Decay)」の係数を過度に大きく設定すると、どのような影響が予想されますか?
2.
重みの初期化において、「ゼロ初期化」が推奨されない理由は何ですか?
3.
重み共有を行わない場合、畳み込みニューラルネットワーク(CNN)における主な問題は何ですか?
4.
「勾配クリッピング(Gradient Clipping)」が必要になる理由は何ですか?
5.
重みの「ランダム初期化」が重要である理由は次のうちどれですか?
6.
重みの初期化が不適切だとどのような問題が発生しますか?
7.
勾配降下法を用いて重みを更新する際の「学習率」の役割は何ですか?
8.
ニューラルネットワークの重みが「ランダム初期化」される理由の一つに、次の現象の防止があります。それは何ですか?
9.
重みの初期化手法として「Xavier初期化」が適しているのはどのような場合ですか?
10.
ニューラルネットワークにおいて、過学習を防ぐための正則化手法として、次のうちどれが重みの制御に関与しますか?
11.
勾配消失問題は、主にどのような状況で発生しますか?
12.
重みの初期化において、深層ニューラルネットワークで「He初期化」が推奨されるのは次のうちどのような場合ですか?
13.
ニューラルネットワークの重み更新において、「学習率減衰(Learning Rate Decay)」が効果的である理由は何ですか?
14.
ニューラルネットワークにおいて「重み減衰(Weight Decay)」が導入される理由は何ですか?
15.
勾配降下法において「モーメンタム(Momentum)」を使用する理由は次のうちどれですか?
16.
ニューラルネットワークの「重み」とは何ですか?
17.
ニューラルネットワークにおける「勾配爆発(Gradient Explosion)」はどのように発生しますか?
18.
ニューラルネットワークで「重み共有」が使用される主な理由は何ですか?
19.
ニューラルネットワークで重みの「早期停止(Early Stopping)」が有効な理由は何ですか?
20.
重みの更新に使用される最も一般的な手法は何ですか?