1.
Transformerアーキテクチャが従来のRNNと比較して自然言語処理タスクで優れている理由として最も適切なのはどれですか?
2.
ニューラルネットワークにおける「ドロップアウト」の目的は何ですか?
3.
ニューラルネットワークの基本的な構造はどのようなものですか?
4.
自然言語処理タスクにおいて、LSTMを使用する利点は何ですか?
5.
リカレントニューラルネットワーク(RNN)が適用されるタスクの特徴として最も適切なのはどれですか?
6.
ディープラーニングのトレーニングプロセスにおいて、バッチサイズを小さく設定する利点として正しいのはどれですか?
7.
ニューラルネットワークのトレーニング中に「早期停止」を使用する目的は何ですか?
8.
モデル選択において「エッジケース」を考慮する理由は何ですか?
9.
ディープラーニングモデルの訓練中に、モデルがテストデータに対して高いエラー率を示す場合、考慮すべき点は何ですか?
10.
モデルのハイパーパラメータを最適化するための「ベイズ最適化」とは何ですか?
11.
ドロップアウトを使用する主な理由は何ですか?
12.
畳み込み層における「ストライド」とは何を指しますか?
13.
モデルの選択において、「アンサンブル学習」とは何を指しますか?
15.
CNN(畳み込みニューラルネットワーク)が特に得意とするタスクは何ですか?
16.
ディープラーニングが従来のニューラルネットワークと比較して、より多くの層を使用できる理由として適切なのはどれですか?
17.
LSTM(Long Short-Term Memory)の主な利点は何ですか?
19.
畳み込みニューラルネットワーク(CNN)で使用される「畳み込み層」の主な目的は何ですか?
20.
ディープラーニングモデルの選択において、「正則化」の主な目的は何ですか?
21.
CNNのプーリング層の役割として適切なのはどれですか?
23.
ディープラーニングにおいて「損失関数」の役割は何ですか?
24.
ニューラルネットワークにおいて、重みとバイアスが学習される理由として正しいのはどれですか?
25.
CNNを使用して画像分類を行う際、データ前処理として一般的に行われる処理はどれですか?
26.
ニューラルネットワークにおける「リカレントニューラルネットワーク(RNN)」はどのようなデータに適していますか?