2.
Leaky ReLUを使用する場合、負の入力に対する勾配が大きすぎるとどのような問題が発生しますか?
3.
Deep Residual Networks(ResNet)におけるReLUの役割は何ですか?
5.
Tanh関数がシグモイド関数よりも深層学習に適している理由はどれですか?
6.
tanh関数がシグモイド関数に比べて優れている点はどれですか?
8.
活性化関数の選択が勾配消失問題に与える影響について、正しい記述はどれですか?
9.
Softmax関数を使用する場合、出力の合計が1になる理由として正しいのはどれですか?
10.
ReLUを使用する利点として適切なのはどれですか?
11.
Softmax関数は、どのようなタスクで最もよく使用されますか?
12.
「Leaky ReLU」の特長は何ですか?
13.
ELU(Exponential Linear Unit)の特徴として適切なのはどれですか?
14.
Parametric ReLU(PReLU)で、パラメータを学習することで得られる利点は何ですか?
15.
勾配消失問題を軽減するために一般的に使用される活性化関数はどれですか?
16.
Swish関数が特に役立つとされる状況はどれですか?
17.
「死んだニューロン」問題を防ぐための改善策として適切なのはどれですか?
18.
Swish関数をReLUの代わりに使用する利点は何ですか?
19.
ELU(Exponential Linear Unit)はどのような特性を持っていますか?
20.
シグモイド関数が適用される一般的なケースはどれですか?
22.
ReLUとSwishを比較した際に、Swishが持つ利点として正しいのはどれですか?
24.
「ReLU(Rectified Linear Unit)」の出力範囲はどれですか?
25.
ディープラーニングにおいて、活性化関数を適切に選択しない場合、どのような問題が発生しますか?
26.
活性化関数としてPReLU(Parametric ReLU)がLeaky ReLUよりも優れている理由は何ですか?