AI実装検定S級~模擬試験①~ 2024年12月8日2025年3月1日 ailearn 1. ResNetの設計における「ボトルネックブロック」の役割は何ですか? モデルの出力層の次元を増やす 残差ブロックのパラメータ数を削減しつつ、同等の表現力を保つ 勾配消失を引き起こす 全結合層の数を増やす None 2. GoogLeNetの設計で「プーリング層」を使用する主な目的は何ですか? パラメータ数を増やすため モデルの計算速度を低下させるため 特徴マップのサイズを縮小し、重要な特徴を強調するため 活性化関数を最適化するため None 3. ResNetの設計において、最大の特徴である「残差接続(Residual Connection)」の目的は何ですか? モデルの計算コストを削減するため 非線形性を増加させるため 勾配消失問題を軽減し、深い層でも学習が安定するようにするため モデルのパラメータ数を増加させるため None 4. VGGネットワークで「転移学習」が効果的な理由は何ですか? モデルが浅いネットワーク構造を持つため 事前学習された特徴が多くの異なるタスクに対して汎用的であるため モデルのパラメータ数が少ないため モデルが固定された出力サイズを持つため None 5. TransformerモデルがRNNベースのseq2seqモデルと比較して持つ利点はどれですか? モデルのパラメータ数が少ない 時系列処理に依存せず、並列処理が可能で学習が高速化される 学習に多くのデータが必要 モデルが入力シーケンスを自動で正規化する None 6. ResNetの「学習率スケジューリング」が訓練において重要である理由は何ですか? 学習の初期段階で大きな学習率を使用し、後半では小さな学習率を使用して最適な収束を促すため 学習率を一定に保つため 勾配消失問題を解決するため モデルのパラメータ数を増加させるため None 7. GoogLeNetで「バッチ正規化」を適用することで期待される効果は何ですか? モデルの学習が安定し、収束速度が向上する モデルのパラメータ数が減少する 活性化関数が不要になる モデルの計算量が増加する None 8. seq2seqモデルの性能評価において、「精度」よりも「F1スコア」を使用する理由は何ですか? 精度が高いと過学習が発生するから 精度がクラス不均衡なデータセットに対して適切でない場合があるから F1スコアはモデルのトレーニング時間を減少させるから F1スコアはデータ前処理を必要としないから None 9. GoogLeNetのInceptionモジュールにおいて、「1x1の畳み込み層」を事前に適用しない場合、どういった問題が発生する可能性がありますか? モデルの性能が向上する 計算量が大幅に増加し、訓練に時間がかかる 特徴マップのサイズが増加しすぎて、過学習が発生する モデルのパラメータ数が減少する None 10. ResNetで「非常に深いネットワーク」を使用するとき、勾配消失問題を完全に解決できない場合、他にどのような問題が発生する可能性がありますか? モデルの精度が大幅に向上する ネットワークが適切に収束せず、精度が低下する 残差接続が無効になる モデルのパラメータ数が減少する None 11. GoogLeNetにおいて「複数の出力層(auxiliary classifiers)」を追加する目的は何ですか? モデルのパラメータ数を増加させるため 中間層でも学習を行い、勾配消失問題を防ぐため 訓練データの量を増やすため 全結合層を削減するため None 12. WideResNetが「深さ」を増やす代わりに「幅」を増やす選択をする理由は何ですか? 訓練データの量を減らすため 計算量を削減するため 勾配消失問題を軽減しつつ、より多様な特徴を学習するため モデルのパラメータ数を減らすため None 13. seq2seqモデルにおいて、LSTM(Long Short-Term Memory)がRNNに比べて優れている点は何ですか? 訓練データのサイズを自動的に削減できる 勾配消失問題を軽減し、長期的な依存関係を学習できる モデルの学習速度を向上させる 出力の次元数を減らす None 14. BERTモデルで使用される「マスク付き言語モデル(MLM)」の目的は何ですか? モデルの重みを削減するため 一部の単語を隠し、それを予測するタスクを通じて文脈を学習させるため モデルの学習速度を向上させるため モデルのサイズを最適化するため None 15. Transformerモデルにおいて、「位置的注意スコア」はどのように計算されますか? 出力とターゲットシーケンスの距離に基づいて計算される エンコーダとデコーダの出力を直接比較する モデルの重みから自動計算される クエリとキーの内積を計算し、それをソフトマックスで正規化する None 16. Transformerモデルにおいて「残差接続(Residual Connection)」の目的は何ですか? モデルの重みを削減するため モデルの学習速度を向上させるため データの前処理を自動化するため 各層の出力に入力を加算し、勾配消失を防ぎ、深いネットワークでも学習を安定化させるため None 17. seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか? モデルの出力を最適化する モデルの誤差を修正する モデルの学習率を調整する エンコーダが入力シーケンスをエンコードした結果をまとめ、デコーダに渡す情報を要約する None 18. ResNetの「ボトルネックブロック」が非常に深い層でも有効に機能する理由は何ですか? パラメータ数を減らすことで計算効率を向上させ、勾配消失を防ぐため 各層で出力を増加させるため 全結合層を使用しないため 活性化関数を削除するため None 19. VGGネットワークの全結合層を削減した場合、予想される効果は何ですか? モデルの精度が大幅に向上する パラメータ数が減少し、メモリ使用量が少なくなる モデルの計算速度が遅くなる モデルの訓練が困難になる None 20. VGG16において「16」という数字が示しているものは何ですか? 畳み込み層のカーネルサイズ ネットワーク内の畳み込み層と全結合層の合計数 ネットワークの深さ プーリング層の数 None 21. seq2seqモデルで「デコーダ」が生成するのは何ですか? 入力シーケンスの次元数 出力シーケンス モデルの重み エンコーダの隠れ状態 None 22. ResNetで使用される「バッチ正規化(Batch Normalization)」の主な役割は何ですか? 学習率を自動で最適化するため モデルの計算量を減らすため 各層の出力を正規化し、学習の安定性を向上させるため 残差接続の効果を無効にするため None 23. VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか? モデルの層数を増やす ドロップアウト層を導入する 重みのランダム初期化を行う 活性化関数を変更する None 24. 自己回帰型Transformerモデルにおいて「学習時と推論時のギャップ」を軽減する手法はどれですか? スケジュールサンプリング ビームサーチ 正則化 ドロップアウト None 25. GoogLeNetの出力層の設計に関して、正しい説明は次のうちどれですか? Softmax活性化関数を使用して、各クラスの確率を出力する ReLUを使用してクラス間の差異を明確にする Linear活性化関数を使用して連続値を出力する Tanh関数を使用して二値分類を行う None 26. VGGネットワークが「事前学習済みモデル」としてよく使用される理由は何ですか? モデルが軽量であるため ネットワークの深さが浅いため パラメータ数が少ないため 多くの異なる画像データセットで良好な性能を発揮するため None 27. 「クロスアテンション」とは何ですか? 自己注意機構と同様に動作し、入力シーケンス内の関係性を学習する デコーダ内でのみ使用されるアテンション機構 エンコーダとデコーダ間で異なるシーケンスに対して注意を向ける機構 同じシーケンス内で注意を向ける機構 None 28. seq2seqモデルにおける「双方向エンコーダ(Bidirectional Encoder)」の利点は何ですか? モデルの計算コストを削減するため デコーダの性能を向上させるため 入力シーケンスを前方向と後方向の両方から処理し、文脈の理解を深めるため モデルの訓練時間を短縮するため None 29. seq2seqモデルにおける「アテンション機構」の役割は何ですか? モデルのトレーニング時間を短縮するため モデルが全ての入力シーケンスを同時に処理するため デコーダがエンコーダの全ての出力に注意を向けて、適切な情報を重視するため モデルがデータをシャッフルするため None 30. GoogLeNetモデルの主な特徴は次のうちどれですか? 全結合層の数を増やしたモデル Inceptionモジュールを使用し、畳み込みとプーリングを並列に処理する ReLUを活性化関数として使用しないモデル 深さが浅いCNNモデル None 31. ResNet-101の主な特徴は次のうちどれですか? 残差ブロックの数が33個である 101層の全てが全結合層で構成されている 101個のカーネルサイズを持つ 残差接続を使用しない None 32. Transformerモデルにおいて「エンコーダスタック」と「デコーダスタック」の役割の違いは何ですか? エンコーダは出力シーケンスを生成し、デコーダは入力シーケンスをエンコードする エンコーダはアテンションを無視し、デコーダはアテンションを利用する エンコーダは入力シーケンスをエンコードし、デコーダはエンコーダの出力に基づいて出力シーケンスを生成する エンコーダは出力シーケンスをシャッフルし、デコーダは元に戻す None 33. VGGネットワークが「パラメータ数が多い」という点が意味するものは何ですか? モデルが計算資源を多く消費し、メモリ使用量が増える 訓練データの量が少なくても高い性能を発揮する モデルの訓練時間が短くなる パラメータチューニングが不要になる None 34. Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか? モデルの学習速度を向上させる モデルの各層における出力の重要度を評価し、説明可能なAIを実現するため モデルの出力を調整するため データの欠損を補完するため None 35. Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか? 訓練データのサイズを削減する モデルの各層の出力を全て同時に計算する 複数の異なるアテンションを並行して学習し、文脈の多様な側面を捉える デコーダが全ての入力シーケンスをシャッフルする None 36. seq2seqモデルにおいて、入力シーケンスの長さが異なるデータを処理するために最も適している手法はどれですか? 固定長のベクトルに入力シーケンスを切り捨てる パディングを使い、入力シーケンスを同じ長さに揃える 全ての入力シーケンスを同じ長さのデータに変換する 入力シーケンスを無視する None 37. GoogLeNetの「Inceptionモジュール」における「5x5の畳み込み層」を削除した場合、予想される影響は何ですか? 広域の特徴を学習する能力が低下する モデルの計算量が増加する モデルのパラメータ数が増加する 特徴マップのチャネル数が増加する None 38. GoogLeNetの設計において、「dropout」を使用する理由は何ですか? モデルの訓練速度を向上させるため モデルのパラメータ数を増やすため 過学習を防ぎ、モデルの汎化性能を高めるため モデルの出力をシャッフルするため None 39. Transformerモデルで用いられる「FFN(Feed-Forward Network)」の役割は何ですか? エンコーダとデコーダの出力を統合するため 各単語に対して非線形変換を適用し、モデルの表現力を向上させるため モデルの計算コストを削減するため モデルの学習率を最適化するため None 40. ResNet-50の「50」という数字が示しているのは次のうちどれですか? ネットワークの残差ブロック数 全ての層の合計数(畳み込み層、プーリング層、全結合層の合計) 最終出力の次元数 各ブロックで使用されるカーネルサイズ None 41. GoogLeNetの「Inceptionモジュール」の設計において、次元削減を行わないとどのような影響がありますか? モデルの性能が向上する モデルのパラメータ数が減少する モデルの学習速度が向上する モデルの計算量が増加し、メモリ使用量が大幅に増加する None 42. VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか? 特徴マップのサイズを増加させる モデルの計算速度を遅くするため 重要な特徴を抽出し、特徴マップのサイズを縮小するため モデルの出力サイズを固定するため None 43. GoogLeNetの設計において、Inceptionモジュールを使用する利点は何ですか? 全ての特徴を1つのカーネルサイズで学習する 畳み込み層のパラメータ数を増やす 異なるサイズの特徴を同時に学習し、より多様な特徴抽出が可能になる モデルの学習速度を低下させる None 44. GoogLeNetの「Inception-v3」と「Inception-v1」の主な違いは何ですか? Inception-v1は次元削減を行わないが、Inception-v3は行う Inception-v3は、より効率的な畳み込みや正則化技術を採用している Inception-v1はReLUを使用しないが、Inception-v3は使用する Inception-v3は全ての層にバッチ正規化を適用している None 45. GPT-3のような自己回帰型モデルにおいて「注意欠陥」が起こる理由は何ですか? モデルが過去の情報に過剰に依存しすぎるため モデルが同じトークンに繰り返し注意を向けるため モデルが次のトークンを生成する際に、遠い過去の情報を無視する可能性があるため モデルが文法的な構造を理解しないため None 46. GoogLeNetにおいて「1x1畳み込み」の役割は何ですか? 特徴マップのサイズを縮小するため モデルの計算量を減少させるため 次元削減を行い、計算効率を向上させるため モデルのパラメータ数を増加させるため None 47. seq2seqモデルにおいて、「BLEUスコア」とは何を測定する指標ですか? モデルの出力シーケンスの生成速度 生成されたシーケンスが、ターゲットシーケンスとどれだけ一致しているかを測定する指標 モデルの損失関数の値 モデルのハイパーパラメータの最適性 None 48. VGGネットワークで「カーネルサイズを小さくする」設計の意図は何ですか? モデルの精度を低下させるため 訓練データを削減するため パラメータ数を削減しながら、同等の受容野を確保するため モデルの出力サイズを変更するため None 49. VGGネットワークを転移学習に使用する際、全結合層を新しいタスクに合わせて再トレーニングする理由は何ですか? 全結合層は画像全体の意味を捉えるため、他のタスクに対応する必要があるから 全結合層は学習済みの重みを使えないため 全結合層の活性化関数が異なるため 全結合層は事前学習に含まれないため None 50. seq2seqモデルにおいて、「ペナルティ付きビームサーチ」が適用される理由は何ですか? モデルの訓練時間を短縮するため モデルが無限ループに入るのを防ぐため 短いシーケンスばかりが選ばれるのを防ぎ、より適切な長さのシーケンスを生成するため モデルのパラメータ数を削減するため None Time's up