G検定-ディープラーニングの要素技術(回帰結合層)-

1. 
RNNの学習を安定させるために使用される「勾配クリッピング(Gradient Clipping)」の目的は何ですか?

2. 
LSTMの「出力ゲート」はどのように機能しますか?

3. 
RNNの「長期依存性の問題」とは何ですか?

4. 
LSTMにおける「セル状態(Cell State)」が長期的な依存関係の学習に役立つ理由は何ですか?

5. 
「勾配クリッピング」がRNNの学習に有効な理由は何ですか?

6. 
LSTMとGRUの主な違いは何ですか?

7. 
リカレントニューラルネットワーク(RNN)の特徴はどれですか?

8. 
次のうち、Bidirectional RNN(双方向RNN)が単純RNNと異なる理由として適切なのはどれですか?

9. 
RNNが過剰適合を防ぐために使用される一般的な手法は何ですか?

10. 
RNNにおける「隠れ層」の役割は何ですか?

11. 
LSTMの「入力ゲート」は何を制御しますか?

12. 
LSTM(Long Short-Term Memory)で使用される「ゲート」の役割は何ですか?

13. 
Bidirectional RNN(双方向RNN)の特徴は何ですか?

14. 
LSTMの「忘却ゲート」の役割は何ですか?

15. 
RNNの勾配消失問題を解決するために効果的な技術は何ですか?

16. 
回帰結合層(Recurrent Layer)とは何ですか?

17. 
Bidirectional RNNが適用される主なタスクはどれですか?

18. 
RNNが非常に長いシーケンスを扱う際に発生する勾配消失問題を改善するためには、何が効果的ですか?

19. 
RNNで使用される「時間ステップ」とは何を指しますか?

20. 
GRU(Gated Recurrent Unit)がLSTMより計算効率が高い理由として最も適切なものはどれですか?

21. 
シーケンスデータの長期的な依存関係を捉えるために有効な技術はどれですか?

22. 
RNNの「トラケリング問題」とは何ですか?

23. 
GRUの「リセットゲート」の役割は何ですか?

24. 
リカレントニューラルネットワーク(RNN)がシーケンスデータの依存関係を学習する際に使用する「隠れ状態(Hidden State)」は、次のどの役割を果たしますか?

25. 
GRU(Gated Recurrent Unit)はLSTMに比べて何が異なりますか?

26. 
RNNで勾配消失問題が発生しやすい理由として正しいものは次のうちどれですか?

コメントを残すにはログインしてください。