AI実装検定S級~模擬試験①~ 2024年12月8日2025年3月1日 ailearn 1. VGGネットワークが従来のCNNモデルと比較して持つ利点は何ですか? 訓練時間が大幅に短縮される より浅いネットワークで同等の性能を達成する より深い層を使用することで、より抽象的な特徴を学習できる 全結合層を減らすことでパラメータ数が減る None 2. seq2seqモデルにおける「アテンション機構」の役割は何ですか? モデルのトレーニング時間を短縮するため モデルが全ての入力シーケンスを同時に処理するため デコーダがエンコーダの全ての出力に注意を向けて、適切な情報を重視するため モデルがデータをシャッフルするため None 3. GPT-3のような自己回帰型モデルにおいて「注意欠陥」が起こる理由は何ですか? モデルが過去の情報に過剰に依存しすぎるため モデルが同じトークンに繰り返し注意を向けるため モデルが次のトークンを生成する際に、遠い過去の情報を無視する可能性があるため モデルが文法的な構造を理解しないため None 4. seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか? 全ての入力シーケンスに均等に注意を向けるため エンコーダの全ての隠れ状態にアクセスすることで、長いシーケンスの情報を劣化させずに利用できるため モデルの訓練時間を短縮するため デコーダの性能を低下させないため None 5. ResNetで「恒等写像(Identity Mapping)」が重要な理由は何ですか? 残差接続の計算を簡単にするため 活性化関数を適用しないため 各ブロックがそのままの情報を保持し、特徴を消失させないため モデルの層数を増やすため None 6. VGGネットワークで「転移学習」が効果的な理由は何ですか? モデルが浅いネットワーク構造を持つため 事前学習された特徴が多くの異なるタスクに対して汎用的であるため モデルのパラメータ数が少ないため モデルが固定された出力サイズを持つため None 7. GoogLeNetの設計において、「dropout」を使用する理由は何ですか? モデルの訓練速度を向上させるため モデルのパラメータ数を増やすため 過学習を防ぎ、モデルの汎化性能を高めるため モデルの出力をシャッフルするため None 8. GoogLeNetのInceptionモジュールにおいて、「1x1の畳み込み層」を事前に適用しない場合、どういった問題が発生する可能性がありますか? モデルの性能が向上する 計算量が大幅に増加し、訓練に時間がかかる 特徴マップのサイズが増加しすぎて、過学習が発生する モデルのパラメータ数が減少する None 9. VGGネットワークが「パラメータ数が多い」という点が意味するものは何ですか? モデルが計算資源を多く消費し、メモリ使用量が増える 訓練データの量が少なくても高い性能を発揮する モデルの訓練時間が短くなる パラメータチューニングが不要になる None 10. GoogLeNetにおいて「1x1畳み込み」の役割は何ですか? 特徴マップのサイズを縮小するため モデルの計算量を減少させるため 次元削減を行い、計算効率を向上させるため モデルのパラメータ数を増加させるため None 11. GoogLeNetの「Inception-v3」と「Inception-v1」の主な違いは何ですか? Inception-v1は次元削減を行わないが、Inception-v3は行う Inception-v3は、より効率的な畳み込みや正則化技術を採用している Inception-v1はReLUを使用しないが、Inception-v3は使用する Inception-v3は全ての層にバッチ正規化を適用している None 12. Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか? モデルの学習速度を向上させる モデルの各層における出力の重要度を評価し、説明可能なAIを実現するため モデルの出力を調整するため データの欠損を補完するため None 13. seq2seqモデルの訓練において、「教師あり学習」としての訓練が行われる理由は何ですか? データの正解ラベルが不必要だから 正解シーケンスを基に、出力シーケンスが正確に生成されるようにするため モデルが自動的にラベルを生成するため データの欠損値を補完するため None 14. VGGネットワークの層の総数が多い理由は何ですか? 複雑な画像処理をシンプルにするため 各層で異なるレベルの特徴を学習し、高次の抽象的特徴を得るため 各層のパラメータ数を減らすため モデルの訓練を容易にするため None 15. WideResNetが従来のResNetと異なる点は何ですか? スキップ接続を持たない 全ての畳み込み層を1x1に置き換える 残差ブロックの数が減少している 各残差ブロック内のチャネル数が広く設定されている None 16. GoogLeNetが従来のCNNモデルよりも効率的に計算できる理由は何ですか? モデルの層が浅いため 1x1の畳み込みによる次元削減が計算量を大幅に削減するため 重みがランダムに初期化されているため プーリング層が使用されていないため None 17. WideResNetが標準のResNetに比べて「計算効率」を高めるために採用している設計方針は次のうちどれですか? 残差ブロックの数を減らし、幅を増やすことで学習速度を向上させる 全ての畳み込み層を1x1に置き換える モデルの深さをさらに増やす 全結合層を削除する None 18. VGGネットワークにおける「ゼロパディング」の主な役割は何ですか? 特徴マップのサイズを固定し、畳み込み層で情報の損失を防ぐため モデルの訓練時間を短縮するため モデルの出力をシャッフルするため モデルの重みを初期化するため None 19. GoogLeNetの訓練において、学習率スケジューリングを使用する理由は何ですか? モデルの訓練時間を増やすため モデルのパラメータ数を増やすため 学習が進むにつれて学習率を徐々に減少させ、最適な収束を促すため 勾配消失問題を防ぐため None 20. Transformerモデルにおける「ドロップアウト」の目的は何ですか? 訓練中に一部のニューロンをランダムに無効化し、過学習を防ぐ モデルの学習速度を向上させる モデルのハイパーパラメータを調整する モデルの出力シーケンスをシャッフルする None 21. Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか? 訓練データのサイズを削減する モデルの各層の出力を全て同時に計算する 複数の異なるアテンションを並行して学習し、文脈の多様な側面を捉える デコーダが全ての入力シーケンスをシャッフルする None 22. GoogLeNetにおける「正則化技術」が必要とされる理由は何ですか? モデルが非常に深いため、過学習のリスクが高まるから モデルの計算量を増やすため モデルの精度を低下させるため モデルの訓練時間を短縮するため None 23. VGGネットワークが通常使用する活性化関数は何ですか? Sigmoid関数 Tanh関数 ReLU(Rectified Linear Unit)関数 Softmax関数 None 24. Transformerモデルにおいて「エンコーダスタック」と「デコーダスタック」の役割の違いは何ですか? エンコーダは出力シーケンスを生成し、デコーダは入力シーケンスをエンコードする エンコーダはアテンションを無視し、デコーダはアテンションを利用する エンコーダは入力シーケンスをエンコードし、デコーダはエンコーダの出力に基づいて出力シーケンスを生成する エンコーダは出力シーケンスをシャッフルし、デコーダは元に戻す None 25. seq2seqモデルにおいて、損失関数として「クロスエントロピー損失」がよく使用される理由は何ですか? モデルのトレーニングを自動化できるため データの前処理を省略できるため モデルの出力をバイナリデータに変換するため モデルの出力が確率分布であり、正解ラベルとの誤差を測定するのに適しているため None 26. ResNetが「オーバーフィッティング」を防ぐために使用する手法は次のうちどれですか? ドロップアウト 残差接続 正則化 L2正則化 None 27. VGG16において「16」という数字が示しているものは何ですか? 畳み込み層のカーネルサイズ ネットワーク内の畳み込み層と全結合層の合計数 ネットワークの深さ プーリング層の数 None 28. Transformerモデルにおける「ポジションエンコーディング」の役割は何ですか? 入力シーケンスの位置情報を付与することで、単語の順序をモデルに理解させるため モデルの重みを調整するため 入力シーケンスをシャッフルするため モデルの学習速度を向上させるため None 29. seq2seqモデルで使用される基本的なアーキテクチャはどれですか? 畳み込みニューラルネットワーク (CNN) 再帰型ニューラルネットワーク (RNN) ガウス過程 (Gaussian Process) ランダムフォレスト (Random Forest) None 30. WideResNetの主な目的は何ですか? モデルの深さを増やすため 活性化関数を変更するため モデルのパラメータ数を削減するため 残差ブロックの幅(チャネル数)を増やして、計算量を減らしつつ性能を向上させるため None 31. ResNetの「ボトルネックブロック」が非常に深い層でも有効に機能する理由は何ですか? パラメータ数を減らすことで計算効率を向上させ、勾配消失を防ぐため 各層で出力を増加させるため 全結合層を使用しないため 活性化関数を削除するため None 32. seq2seqモデルにおける「ビームサーチ」の目的は何ですか? モデルの出力シーケンスを生成する際に、複数の候補を探索し、最適な出力を見つけるため モデルの訓練速度を向上させるため モデルの出力を正規化するため データの前処理を簡略化するため None 33. VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか? ReLU活性化関数を使用する 重み減衰を適用する 全結合層を削除する バッチ正規化を導入する None 34. seq2seqモデルのデコーダにおいて「Teacher Forcing」が効果的である理由は何ですか? 訓練中にモデルが誤った予測をしても、正解データを使って次のステップの予測ができるから モデルの出力シーケンスを高速化できるから モデルの学習データを自動生成できるから 訓練データの量を削減できるから None 35. VGGネットワークで「カーネルサイズを小さくする」設計の意図は何ですか? モデルの精度を低下させるため 訓練データを削減するため パラメータ数を削減しながら、同等の受容野を確保するため モデルの出力サイズを変更するため None 36. ResNetの「学習率スケジューリング」が訓練において重要である理由は何ですか? 学習の初期段階で大きな学習率を使用し、後半では小さな学習率を使用して最適な収束を促すため 学習率を一定に保つため 勾配消失問題を解決するため モデルのパラメータ数を増加させるため None 37. seq2seqモデルにおいて、入力シーケンスの長さが異なるデータを処理するために最も適している手法はどれですか? 固定長のベクトルに入力シーケンスを切り捨てる パディングを使い、入力シーケンスを同じ長さに揃える 全ての入力シーケンスを同じ長さのデータに変換する 入力シーケンスを無視する None 38. seq2seqモデルのエンコーダにおいて、「長短期記憶(LSTM)」を用いるメリットとして正しいものはどれですか? モデルの学習時間を短縮できる 長期的な依存関係を保持しやすく、勾配消失問題を回避できる デコーダの出力を最適化する パディングを行わずに入力シーケンスを処理できる None 39. GoogLeNetで「Global Average Pooling(GAP)」が使用される理由は何ですか? 全結合層を削減し、過学習を防ぐため 特徴マップのサイズを増やすため 活性化関数を最適化するため モデルの計算速度を低下させるため None 40. GoogLeNetモデルの主な特徴は次のうちどれですか? 全結合層の数を増やしたモデル Inceptionモジュールを使用し、畳み込みとプーリングを並列に処理する ReLUを活性化関数として使用しないモデル 深さが浅いCNNモデル None 41. GoogLeNetが「事前学習済みモデル」として広く使用される理由は何ですか? モデルが軽量であるため 事前学習された特徴が他のタスクに適用できないため 異なる画像データセットに対しても高い性能を発揮するため モデルの層が浅いため None 42. GoogLeNetの設計において「枝分かれしたネットワーク(分岐)」を採用する理由は何ですか? モデルの計算速度を向上させるため モデルのパラメータ数を削減するため 単一の出力に依存することを防ぐため 異なる解像度で特徴を学習し、モデルの汎用性を高めるため None 43. VGGネットワークの設計において「全結合層」を使用する目的は何ですか? 特徴マップのサイズを減らすため 畳み込み層で抽出した特徴を元に、最終的なクラス分類を行うため モデルのパラメータ数を削減するため 活性化関数を変更するため None 44. GoogLeNetの「Inceptionモジュール」の設計において、次元削減を行わないとどのような影響がありますか? モデルの性能が向上する モデルのパラメータ数が減少する モデルの学習速度が向上する モデルの計算量が増加し、メモリ使用量が大幅に増加する None 45. WideResNetの幅を増やすことによる「表現力」の向上が、どのようにモデルの性能に影響を与える可能性がありますか? 残差接続が無効になる 表現力が向上することで、より多様な特徴を学習しやすくなり、精度が向上する モデルの精度が低下する 勾配消失問題が発生する None 46. seq2seqモデルの性能評価において、「精度」よりも「F1スコア」を使用する理由は何ですか? 精度が高いと過学習が発生するから 精度がクラス不均衡なデータセットに対して適切でない場合があるから F1スコアはモデルのトレーニング時間を減少させるから F1スコアはデータ前処理を必要としないから None 47. BERTモデルで使用される「マスク付き言語モデル(MLM)」の目的は何ですか? モデルの重みを削減するため 一部の単語を隠し、それを予測するタスクを通じて文脈を学習させるため モデルの学習速度を向上させるため モデルのサイズを最適化するため None 48. GoogLeNetにおいて、各Inceptionモジュールで「3x3の畳み込み層」を使用する理由は何ですか? 計算コストを削減するため 特徴マップのチャネル数を増やすため プーリング層の代わりに使用されるため 中間的なサイズの特徴を学習し、細かいパターンを捉えるため None 49. GoogLeNetの設計で「プーリング層」を使用する主な目的は何ですか? パラメータ数を増やすため モデルの計算速度を低下させるため 特徴マップのサイズを縮小し、重要な特徴を強調するため 活性化関数を最適化するため None 50. VGGネットワークを転移学習に使用する際、全結合層を新しいタスクに合わせて再トレーニングする理由は何ですか? 全結合層は画像全体の意味を捉えるため、他のタスクに対応する必要があるから 全結合層は学習済みの重みを使えないため 全結合層の活性化関数が異なるため 全結合層は事前学習に含まれないため None Time's up