G検定-ディープラーニングの概要(活性化関数)-

1. 
「ReLU(Rectified Linear Unit)」の出力範囲はどれですか?

2. 
Parametric ReLU(PReLU)で、パラメータを学習することで得られる利点は何ですか?

3. 
Softmax関数は、どのようなタスクで最もよく使用されますか?

4. 
ReLU関数の一般的な問題点は何ですか?

5. 
活性化関数の役割は何ですか?

6. 
シグモイド関数の主な欠点は何ですか?

7. 
「Leaky ReLU」の特長は何ですか?

8. 
Leaky ReLUを使用する場合、負の入力に対する勾配が大きすぎるとどのような問題が発生しますか?

9. 
ReLUを使用する利点として適切なのはどれですか?

10. 
ディープラーニングにおいて、活性化関数を適切に選択しない場合、どのような問題が発生しますか?

11. 
Deep Residual Networks(ResNet)におけるReLUの役割は何ですか?

12. 
勾配消失問題を軽減するために一般的に使用される活性化関数はどれですか?

13. 
Softmax関数を使用する場合、出力の合計が1になる理由として正しいのはどれですか?

14. 
Swish関数が特に役立つとされる状況はどれですか?

15. 
「tanh」関数の出力範囲はどれですか?

16. 
活性化関数としてPReLU(Parametric ReLU)がLeaky ReLUよりも優れている理由は何ですか?

17. 
「死んだニューロン」問題を防ぐための改善策として適切なのはどれですか?

18. 
ReLUとSwishを比較した際に、Swishが持つ利点として正しいのはどれですか?

19. 
シグモイド関数が適用される一般的なケースはどれですか?

20. 
Tanh関数がシグモイド関数よりも深層学習に適している理由はどれですか?

21. 
ELU(Exponential Linear Unit)はどのような特性を持っていますか?

22. 
tanh関数がシグモイド関数に比べて優れている点はどれですか?

23. 
Swish関数の特徴は何ですか?

24. 
活性化関数の選択が勾配消失問題に与える影響について、正しい記述はどれですか?

25. 
ELU(Exponential Linear Unit)の特徴として適切なのはどれですか?

26. 
Swish関数をReLUの代わりに使用する利点は何ですか?

コメントを残すにはログインしてください。