AI実装検定S級~模擬試験①~ 2024年12月8日2025年3月1日 ailearn 1. GoogLeNetの出力層の設計に関して、正しい説明は次のうちどれですか? Softmax活性化関数を使用して、各クラスの確率を出力する ReLUを使用してクラス間の差異を明確にする Linear活性化関数を使用して連続値を出力する Tanh関数を使用して二値分類を行う None 2. WideResNetが従来のResNetと異なる点は何ですか? スキップ接続を持たない 全ての畳み込み層を1x1に置き換える 残差ブロックの数が減少している 各残差ブロック内のチャネル数が広く設定されている None 3. GPT(Generative Pre-trained Transformer)モデルがBERTとは異なる点は何ですか? GPTは双方向の文脈を同時に学習するが、BERTは単方向の文脈しか学習しない GPTは単方向の文脈を学習し、テキスト生成タスクに特化している GPTはエンコーダのみを使用し、BERTはデコーダのみを使用する GPTは翻訳タスク専用で、BERTは分類タスク専用である None 4. seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか? 全ての入力シーケンスに均等に注意を向けるため エンコーダの全ての隠れ状態にアクセスすることで、長いシーケンスの情報を劣化させずに利用できるため モデルの訓練時間を短縮するため デコーダの性能を低下させないため None 5. VGGネットワークの全結合層を削減した場合、予想される効果は何ですか? モデルの精度が大幅に向上する パラメータ数が減少し、メモリ使用量が少なくなる モデルの計算速度が遅くなる モデルの訓練が困難になる None 6. Transformerモデルにおいて「Layer Normalization(層正規化)」が行われる主な理由は何ですか? モデルの出力を正規化して勾配爆発や消失を防ぐため モデルのサイズを削減するため モデルのトレーニング速度を遅くするため データを自動で前処理するため None 7. ResNetの設計における「ボトルネックブロック」の役割は何ですか? モデルの出力層の次元を増やす 残差ブロックのパラメータ数を削減しつつ、同等の表現力を保つ 勾配消失を引き起こす 全結合層の数を増やす None 8. seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか? モデルの出力を最適化する モデルの誤差を修正する モデルの学習率を調整する エンコーダが入力シーケンスをエンコードした結果をまとめ、デコーダに渡す情報を要約する None 9. VGGネットワークにおける「ゼロパディング」の主な役割は何ですか? 特徴マップのサイズを固定し、畳み込み層で情報の損失を防ぐため モデルの訓練時間を短縮するため モデルの出力をシャッフルするため モデルの重みを初期化するため None 10. VGG16において「16」という数字が示しているものは何ですか? 畳み込み層のカーネルサイズ ネットワーク内の畳み込み層と全結合層の合計数 ネットワークの深さ プーリング層の数 None 11. seq2seqモデルにおいて、入力シーケンスの長さが異なるデータを処理するために最も適している手法はどれですか? 固定長のベクトルに入力シーケンスを切り捨てる パディングを使い、入力シーケンスを同じ長さに揃える 全ての入力シーケンスを同じ長さのデータに変換する 入力シーケンスを無視する None 12. seq2seqモデルにおいて、「学習時のスケジュールサンプリング」が持つ効果は何ですか? モデルの学習速度を速めるため モデルのパラメータ数を減少させるため 訓練時にモデルが予測したトークンを使い、実運用に近い形で学習するため モデルのハイパーパラメータを自動的に最適化するため None 13. VGGネットワークが「パラメータ数が多い」という点が意味するものは何ですか? モデルが計算資源を多く消費し、メモリ使用量が増える 訓練データの量が少なくても高い性能を発揮する モデルの訓練時間が短くなる パラメータチューニングが不要になる None 14. seq2seqモデルにおいて、「BLEUスコア」とは何を測定する指標ですか? モデルの出力シーケンスの生成速度 生成されたシーケンスが、ターゲットシーケンスとどれだけ一致しているかを測定する指標 モデルの損失関数の値 モデルのハイパーパラメータの最適性 None 15. VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか? モデルの層数を増やす ドロップアウト層を導入する 重みのランダム初期化を行う 活性化関数を変更する None 16. ResNetが「非常に深いネットワーク」においても有効に機能する理由は何ですか? 全ての層で勾配を消失させるため 残差接続が勾配消失問題を防ぎ、層が深くなっても学習が安定するため 全結合層を多用するため 勾配爆発を引き起こすため None 17. WideResNetの主な目的は何ですか? モデルの深さを増やすため 活性化関数を変更するため モデルのパラメータ数を削減するため 残差ブロックの幅(チャネル数)を増やして、計算量を減らしつつ性能を向上させるため None 18. seq2seqモデルにおいて「エンコーダ」の役割は何ですか? 入力シーケンスを受け取り、隠れ状態に変換する 出力シーケンスを生成する モデルの重みを最適化する 入力データの次元を削減する None 19. 自己回帰型Transformerモデルにおいて「学習時と推論時のギャップ」を軽減する手法はどれですか? スケジュールサンプリング ビームサーチ 正則化 ドロップアウト None 20. GoogLeNetの訓練において、学習率スケジューリングを使用する理由は何ですか? モデルの訓練時間を増やすため モデルのパラメータ数を増やすため 学習が進むにつれて学習率を徐々に減少させ、最適な収束を促すため 勾配消失問題を防ぐため None 21. VGGネットワークが「事前学習済みモデル」としてよく使用される理由は何ですか? モデルが軽量であるため ネットワークの深さが浅いため パラメータ数が少ないため 多くの異なる画像データセットで良好な性能を発揮するため None 22. GoogLeNetが「事前学習済みモデル」として広く使用される理由は何ですか? モデルが軽量であるため 事前学習された特徴が他のタスクに適用できないため 異なる画像データセットに対しても高い性能を発揮するため モデルの層が浅いため None 23. GoogLeNetにおける「正則化技術」が必要とされる理由は何ですか? モデルが非常に深いため、過学習のリスクが高まるから モデルの計算量を増やすため モデルの精度を低下させるため モデルの訓練時間を短縮するため None 24. seq2seqモデルにおける「双方向エンコーダ(Bidirectional Encoder)」の利点は何ですか? モデルの計算コストを削減するため デコーダの性能を向上させるため 入力シーケンスを前方向と後方向の両方から処理し、文脈の理解を深めるため モデルの訓練時間を短縮するため None 25. VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか? 特徴マップのサイズを増加させる モデルの計算速度を遅くするため 重要な特徴を抽出し、特徴マップのサイズを縮小するため モデルの出力サイズを固定するため None 26. Transformerモデルにおける「マルチヘッドアテンション」の目的は何ですか? 学習速度を向上させるため 複数の異なるアテンションを同時に学習し、文脈の多様な側面を捉えるため データのノイズを削除するため モデルのサイズを小さくするため None 27. VGGネットワークが通常使用する活性化関数は何ですか? Sigmoid関数 Tanh関数 ReLU(Rectified Linear Unit)関数 Softmax関数 None 28. GoogLeNetが従来のCNNモデルよりも効率的に計算できる理由は何ですか? モデルの層が浅いため 1x1の畳み込みによる次元削減が計算量を大幅に削減するため 重みがランダムに初期化されているため プーリング層が使用されていないため None 29. seq2seqモデルのデコーダにおいて「Teacher Forcing」が効果的である理由は何ですか? 訓練中にモデルが誤った予測をしても、正解データを使って次のステップの予測ができるから モデルの出力シーケンスを高速化できるから モデルの学習データを自動生成できるから 訓練データの量を削減できるから None 30. ResNetの「ボトルネックブロック」が非常に深い層でも有効に機能する理由は何ですか? パラメータ数を減らすことで計算効率を向上させ、勾配消失を防ぐため 各層で出力を増加させるため 全結合層を使用しないため 活性化関数を削除するため None 31. seq2seqモデルの訓練において、「教師あり学習」としての訓練が行われる理由は何ですか? データの正解ラベルが不必要だから 正解シーケンスを基に、出力シーケンスが正確に生成されるようにするため モデルが自動的にラベルを生成するため データの欠損値を補完するため None 32. VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか? ReLU活性化関数を使用する 重み減衰を適用する 全結合層を削除する バッチ正規化を導入する None 33. VGGネットワークが従来のCNNモデルと比較して持つ利点は何ですか? 訓練時間が大幅に短縮される より浅いネットワークで同等の性能を達成する より深い層を使用することで、より抽象的な特徴を学習できる 全結合層を減らすことでパラメータ数が減る None 34. ResNetの「学習率スケジューリング」が訓練において重要である理由は何ですか? 学習の初期段階で大きな学習率を使用し、後半では小さな学習率を使用して最適な収束を促すため 学習率を一定に保つため 勾配消失問題を解決するため モデルのパラメータ数を増加させるため None 35. Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか? モデルの学習を開始する前に、学習率を徐々に増加させて安定した学習を行うため モデルの重みを初期化するため モデルの過学習を防ぐため データの正規化を行うため None 36. Transformerモデルにおいて、「位置的注意スコア」はどのように計算されますか? 出力とターゲットシーケンスの距離に基づいて計算される エンコーダとデコーダの出力を直接比較する モデルの重みから自動計算される クエリとキーの内積を計算し、それをソフトマックスで正規化する None 37. seq2seqモデルで「デコーダ」が生成するのは何ですか? 入力シーケンスの次元数 出力シーケンス モデルの重み エンコーダの隠れ状態 None 38. ResNetで「非常に深いネットワーク」を使用するとき、勾配消失問題を完全に解決できない場合、他にどのような問題が発生する可能性がありますか? モデルの精度が大幅に向上する ネットワークが適切に収束せず、精度が低下する 残差接続が無効になる モデルのパラメータ数が減少する None 39. ResNetが「オーバーフィッティング」を防ぐために使用する手法は次のうちどれですか? ドロップアウト 残差接続 正則化 L2正則化 None 40. GoogLeNetのInceptionモジュールにおいて、「1x1の畳み込み層」を事前に適用しない場合、どういった問題が発生する可能性がありますか? モデルの性能が向上する 計算量が大幅に増加し、訓練に時間がかかる 特徴マップのサイズが増加しすぎて、過学習が発生する モデルのパラメータ数が減少する None 41. ResNetで「勾配消失問題」を防ぐための他の手法として考えられるものは次のうちどれですか? 全結合層を削除する 残差接続を無効にする バッチ正規化を導入する パラメータをランダムに初期化する None 42. WideResNetの幅を増やすことによる「表現力」の向上が、どのようにモデルの性能に影響を与える可能性がありますか? 残差接続が無効になる 表現力が向上することで、より多様な特徴を学習しやすくなり、精度が向上する モデルの精度が低下する 勾配消失問題が発生する None 43. GoogLeNetの設計において、「dropout」を使用する理由は何ですか? モデルの訓練速度を向上させるため モデルのパラメータ数を増やすため 過学習を防ぎ、モデルの汎化性能を高めるため モデルの出力をシャッフルするため None 44. GoogLeNetの「Inceptionモジュール」における「5x5の畳み込み層」を削除した場合、予想される影響は何ですか? 広域の特徴を学習する能力が低下する モデルの計算量が増加する モデルのパラメータ数が増加する 特徴マップのチャネル数が増加する None 45. seq2seqモデルで使用される基本的なアーキテクチャはどれですか? 畳み込みニューラルネットワーク (CNN) 再帰型ニューラルネットワーク (RNN) ガウス過程 (Gaussian Process) ランダムフォレスト (Random Forest) None 46. Transformerモデルにおいて「残差接続(Residual Connection)」の目的は何ですか? モデルの重みを削減するため モデルの学習速度を向上させるため データの前処理を自動化するため 各層の出力に入力を加算し、勾配消失を防ぎ、深いネットワークでも学習を安定化させるため None 47. seq2seqモデルの性能評価において、「精度」よりも「F1スコア」を使用する理由は何ですか? 精度が高いと過学習が発生するから 精度がクラス不均衡なデータセットに対して適切でない場合があるから F1スコアはモデルのトレーニング時間を減少させるから F1スコアはデータ前処理を必要としないから None 48. seq2seqモデルにおける「ビームサーチ」の目的は何ですか? モデルの出力シーケンスを生成する際に、複数の候補を探索し、最適な出力を見つけるため モデルの訓練速度を向上させるため モデルの出力を正規化するため データの前処理を簡略化するため None 49. GoogLeNetにおいて「1x1畳み込み」の役割は何ですか? 特徴マップのサイズを縮小するため モデルの計算量を減少させるため 次元削減を行い、計算効率を向上させるため モデルのパラメータ数を増加させるため None 50. GoogLeNetにおいて、各Inceptionモジュールで「3x3の畳み込み層」を使用する理由は何ですか? 計算コストを削減するため 特徴マップのチャネル数を増やすため プーリング層の代わりに使用されるため 中間的なサイズの特徴を学習し、細かいパターンを捉えるため None Time's up