G検定-ディープラーニングの概要(活性化関数)-

1. 
Deep Residual Networks(ResNet)におけるReLUの役割は何ですか?

2. 
ディープラーニングにおいて、活性化関数を適切に選択しない場合、どのような問題が発生しますか?

3. 
Swish関数の特徴は何ですか?

4. 
Swish関数をReLUの代わりに使用する利点は何ですか?

5. 
Softmax関数は、どのようなタスクで最もよく使用されますか?

6. 
ELU(Exponential Linear Unit)の特徴として適切なのはどれですか?

7. 
Swish関数が特に役立つとされる状況はどれですか?

8. 
tanh関数がシグモイド関数に比べて優れている点はどれですか?

9. 
Tanh関数がシグモイド関数よりも深層学習に適している理由はどれですか?

10. 
ReLU関数の一般的な問題点は何ですか?

11. 
ELU(Exponential Linear Unit)はどのような特性を持っていますか?

12. 
Softmax関数を使用する場合、出力の合計が1になる理由として正しいのはどれですか?

13. 
Parametric ReLU(PReLU)で、パラメータを学習することで得られる利点は何ですか?

14. 
「Leaky ReLU」の特長は何ですか?

15. 
「死んだニューロン」問題を防ぐための改善策として適切なのはどれですか?

16. 
活性化関数の役割は何ですか?

17. 
「ReLU(Rectified Linear Unit)」の出力範囲はどれですか?

18. 
勾配消失問題を軽減するために一般的に使用される活性化関数はどれですか?

19. 
Leaky ReLUを使用する場合、負の入力に対する勾配が大きすぎるとどのような問題が発生しますか?

20. 
ReLUとSwishを比較した際に、Swishが持つ利点として正しいのはどれですか?

21. 
活性化関数の選択が勾配消失問題に与える影響について、正しい記述はどれですか?

22. 
「tanh」関数の出力範囲はどれですか?

23. 
ReLUを使用する利点として適切なのはどれですか?

24. 
シグモイド関数の主な欠点は何ですか?

25. 
活性化関数としてPReLU(Parametric ReLU)がLeaky ReLUよりも優れている理由は何ですか?

26. 
シグモイド関数が適用される一般的なケースはどれですか?

コメントを残すにはログインしてください。