1.
tanh関数がシグモイド関数に比べて優れている点はどれですか?
2.
シグモイド関数が適用される一般的なケースはどれですか?
3.
Softmax関数を使用する場合、出力の合計が1になる理由として正しいのはどれですか?
4.
「ReLU(Rectified Linear Unit)」の出力範囲はどれですか?
5.
Swish関数が特に役立つとされる状況はどれですか?
6.
Parametric ReLU(PReLU)で、パラメータを学習することで得られる利点は何ですか?
7.
ReLUを使用する利点として適切なのはどれですか?
8.
ELU(Exponential Linear Unit)の特徴として適切なのはどれですか?
9.
Tanh関数がシグモイド関数よりも深層学習に適している理由はどれですか?
10.
勾配消失問題を軽減するために一般的に使用される活性化関数はどれですか?
12.
活性化関数の選択が勾配消失問題に与える影響について、正しい記述はどれですか?
14.
Deep Residual Networks(ResNet)におけるReLUの役割は何ですか?
16.
「死んだニューロン」問題を防ぐための改善策として適切なのはどれですか?
17.
ディープラーニングにおいて、活性化関数を適切に選択しない場合、どのような問題が発生しますか?
19.
「Leaky ReLU」の特長は何ですか?
20.
Softmax関数は、どのようなタスクで最もよく使用されますか?
22.
ELU(Exponential Linear Unit)はどのような特性を持っていますか?
23.
活性化関数としてPReLU(Parametric ReLU)がLeaky ReLUよりも優れている理由は何ですか?
24.
ReLUとSwishを比較した際に、Swishが持つ利点として正しいのはどれですか?
25.
Leaky ReLUを使用する場合、負の入力に対する勾配が大きすぎるとどのような問題が発生しますか?
26.
Swish関数をReLUの代わりに使用する利点は何ですか?