2.
「Nesterov Accelerated Gradient(NAG)」がモーメンタム法と異なる点はどれですか?
3.
最適化手法における「バッチサイズ」とは何ですか?
4.
RMSPropが「AdaGrad」の課題を解決するために導入した主な改善点は何ですか?
5.
学習率が小さすぎると、どのような問題が発生しますか?
6.
最適化手法における「早期停止」とは何ですか?
7.
最適化手法で「局所最適解」に陥るリスクを軽減するために有効な戦略として適切なのはどれですか?
8.
「Adamオプティマイザー」がRMSPropに比べて有利な点として最も適切なものはどれですか?
11.
勾配降下法のバリエーションとして「確率的勾配降下法(SGD)」がありますが、これの特徴は何ですか?
13.
最適化手法において「Nesterov Accelerated Gradient(NAG)」の特徴は何ですか?
14.
最適化手法における「自動微分」とは何ですか?
15.
「学習率減衰(Learning Rate Decay)」が特に有効となる場面はどれですか?
16.
最適化手法において「局所最適解」とは何ですか?
17.
「適応学習率(Adaptive Learning Rate)」を利用する最適化手法の主な目的は何ですか?
18.
最適化手法の選択で重要な要因はどれですか?
19.
RPROP(Resilient Backpropagation)の特徴は何ですか?
20.
Adamオプティマイザーの特長は何ですか?
21.
Adamオプティマイザーの特徴として正しいものはどれですか?
22.
バッチサイズを選択する際の考慮点はどれですか?
23.
学習率減衰(Learning Rate Decay)の目的は何ですか?
24.
最適化手法の一つとして「AdaGrad」が持つ特徴は何ですか?
25.
最適化手法として「RMSprop」を使用する利点は何ですか?
26.
スタッケードエルボー(Stochastic Elbow)とは何ですか?