1.
LSTM(Long Short-Term Memory)で使用される「ゲート」の役割は何ですか?
2.
回帰結合層(Recurrent Layer)とは何ですか?
4.
GRU(Gated Recurrent Unit)がLSTMより計算効率が高い理由として最も適切なものはどれですか?
5.
LSTMにおける「セル状態(Cell State)」が長期的な依存関係の学習に役立つ理由は何ですか?
6.
GRUの「リセットゲート」の役割は何ですか?
7.
Bidirectional RNNが適用される主なタスクはどれですか?
8.
Bidirectional RNN(双方向RNN)の特徴は何ですか?
9.
リカレントニューラルネットワーク(RNN)の特徴はどれですか?
11.
LSTMの「出力ゲート」はどのように機能しますか?
12.
LSTMの「忘却ゲート」の役割は何ですか?
13.
RNNの「トラケリング問題」とは何ですか?
14.
「勾配クリッピング」がRNNの学習に有効な理由は何ですか?
15.
RNNで使用される「時間ステップ」とは何を指しますか?
16.
シーケンスデータの長期的な依存関係を捉えるために有効な技術はどれですか?
17.
リカレントニューラルネットワーク(RNN)がシーケンスデータの依存関係を学習する際に使用する「隠れ状態(Hidden State)」は、次のどの役割を果たしますか?
18.
RNNの学習を安定させるために使用される「勾配クリッピング(Gradient Clipping)」の目的は何ですか?
19.
RNNで勾配消失問題が発生しやすい理由として正しいものは次のうちどれですか?
20.
RNNが非常に長いシーケンスを扱う際に発生する勾配消失問題を改善するためには、何が効果的ですか?
21.
RNNの勾配消失問題を解決するために効果的な技術は何ですか?
22.
RNNが過剰適合を防ぐために使用される一般的な手法は何ですか?
23.
RNNにおける「隠れ層」の役割は何ですか?
24.
GRU(Gated Recurrent Unit)はLSTMに比べて何が異なりますか?
25.
次のうち、Bidirectional RNN(双方向RNN)が単純RNNと異なる理由として適切なのはどれですか?
26.
LSTMの「入力ゲート」は何を制御しますか?