G検定-ディープラーニングの概要(活性化関数)-

1. 
ReLU関数の一般的な問題点は何ですか?

2. 
Swish関数が特に役立つとされる状況はどれですか?

3. 
ELU(Exponential Linear Unit)の特徴として適切なのはどれですか?

4. 
ReLUとSwishを比較した際に、Swishが持つ利点として正しいのはどれですか?

5. 
Parametric ReLU(PReLU)で、パラメータを学習することで得られる利点は何ですか?

6. 
ReLUを使用する利点として適切なのはどれですか?

7. 
活性化関数の役割は何ですか?

8. 
Tanh関数がシグモイド関数よりも深層学習に適している理由はどれですか?

9. 
Leaky ReLUを使用する場合、負の入力に対する勾配が大きすぎるとどのような問題が発生しますか?

10. 
ELU(Exponential Linear Unit)はどのような特性を持っていますか?

11. 
「ReLU(Rectified Linear Unit)」の出力範囲はどれですか?

12. 
シグモイド関数の主な欠点は何ですか?

13. 
Deep Residual Networks(ResNet)におけるReLUの役割は何ですか?

14. 
活性化関数としてPReLU(Parametric ReLU)がLeaky ReLUよりも優れている理由は何ですか?

15. 
tanh関数がシグモイド関数に比べて優れている点はどれですか?

16. 
Softmax関数を使用する場合、出力の合計が1になる理由として正しいのはどれですか?

17. 
「死んだニューロン」問題を防ぐための改善策として適切なのはどれですか?

18. 
勾配消失問題を軽減するために一般的に使用される活性化関数はどれですか?

19. 
ディープラーニングにおいて、活性化関数を適切に選択しない場合、どのような問題が発生しますか?

20. 
活性化関数の選択が勾配消失問題に与える影響について、正しい記述はどれですか?

21. 
Swish関数をReLUの代わりに使用する利点は何ですか?

22. 
「tanh」関数の出力範囲はどれですか?

23. 
Swish関数の特徴は何ですか?

24. 
「Leaky ReLU」の特長は何ですか?

25. 
Softmax関数は、どのようなタスクで最もよく使用されますか?

26. 
シグモイド関数が適用される一般的なケースはどれですか?

コメントを残すにはログインしてください。