AI実装検定S級~模擬試験①~ 2024年12月8日2025年3月1日 ailearn 1. VGGネットワークの「小さな3x3カーネル」を使用することの利点は何ですか? より大きなカーネルサイズを使用した場合と同じ受容野を確保しつつ、パラメータ数を抑えるため モデルの計算量を削減するため 訓練データを削減するため モデルの過学習を防ぐため None 2. seq2seqモデルで使用される基本的なアーキテクチャはどれですか? 畳み込みニューラルネットワーク (CNN) 再帰型ニューラルネットワーク (RNN) ガウス過程 (Gaussian Process) ランダムフォレスト (Random Forest) None 3. Transformerモデルにおける「ドロップアウト」の目的は何ですか? 訓練中に一部のニューロンをランダムに無効化し、過学習を防ぐ モデルの学習速度を向上させる モデルのハイパーパラメータを調整する モデルの出力シーケンスをシャッフルする None 4. VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか? 特徴マップのサイズを増加させる モデルの計算速度を遅くするため 重要な特徴を抽出し、特徴マップのサイズを縮小するため モデルの出力サイズを固定するため None 5. ResNetで「恒等写像(Identity Mapping)」が重要な理由は何ですか? 残差接続の計算を簡単にするため 活性化関数を適用しないため 各ブロックがそのままの情報を保持し、特徴を消失させないため モデルの層数を増やすため None 6. GoogLeNetの「Inceptionモジュール」における「5x5の畳み込み層」を削除した場合、予想される影響は何ですか? 広域の特徴を学習する能力が低下する モデルの計算量が増加する モデルのパラメータ数が増加する 特徴マップのチャネル数が増加する None 7. Transformerモデルがseq2seqモデルに対して持つ最大の利点は何ですか? アテンション機構のみを使用することで、並列処理が可能であり、長いシーケンスでも効率的に処理できるため モデルのサイズを削減するため パラメータ数を減らすため モデルの訓練時間を短縮するため None 8. seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか? 全ての入力シーケンスに均等に注意を向けるため エンコーダの全ての隠れ状態にアクセスすることで、長いシーケンスの情報を劣化させずに利用できるため モデルの訓練時間を短縮するため デコーダの性能を低下させないため None 9. GoogLeNetの訓練において、学習率スケジューリングを使用する理由は何ですか? モデルの訓練時間を増やすため モデルのパラメータ数を増やすため 学習が進むにつれて学習率を徐々に減少させ、最適な収束を促すため 勾配消失問題を防ぐため None 10. seq2seqモデルで「デコーダ」が生成するのは何ですか? 入力シーケンスの次元数 出力シーケンス モデルの重み エンコーダの隠れ状態 None 11. GoogLeNetモデルの主な特徴は次のうちどれですか? 全結合層の数を増やしたモデル Inceptionモジュールを使用し、畳み込みとプーリングを並列に処理する ReLUを活性化関数として使用しないモデル 深さが浅いCNNモデル None 12. VGGネットワークで「転移学習」が効果的な理由は何ですか? モデルが浅いネットワーク構造を持つため 事前学習された特徴が多くの異なるタスクに対して汎用的であるため モデルのパラメータ数が少ないため モデルが固定された出力サイズを持つため None 13. ResNetで「非常に深いネットワーク」を使用するとき、勾配消失問題を完全に解決できない場合、他にどのような問題が発生する可能性がありますか? モデルの精度が大幅に向上する ネットワークが適切に収束せず、精度が低下する 残差接続が無効になる モデルのパラメータ数が減少する None 14. VGGネットワークの設計において「全結合層」を使用する目的は何ですか? 特徴マップのサイズを減らすため 畳み込み層で抽出した特徴を元に、最終的なクラス分類を行うため モデルのパラメータ数を削減するため 活性化関数を変更するため None 15. Transformerモデルにおいて「Layer Normalization(層正規化)」が行われる主な理由は何ですか? モデルの出力を正規化して勾配爆発や消失を防ぐため モデルのサイズを削減するため モデルのトレーニング速度を遅くするため データを自動で前処理するため None 16. Transformerモデルにおいて「残差接続(Residual Connection)」の目的は何ですか? モデルの重みを削減するため モデルの学習速度を向上させるため データの前処理を自動化するため 各層の出力に入力を加算し、勾配消失を防ぎ、深いネットワークでも学習を安定化させるため None 17. Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか? 訓練データのサイズを削減する モデルの各層の出力を全て同時に計算する 複数の異なるアテンションを並行して学習し、文脈の多様な側面を捉える デコーダが全ての入力シーケンスをシャッフルする None 18. VGGネットワークの層の総数が多い理由は何ですか? 複雑な画像処理をシンプルにするため 各層で異なるレベルの特徴を学習し、高次の抽象的特徴を得るため 各層のパラメータ数を減らすため モデルの訓練を容易にするため None 19. VGGネットワークが「事前学習済みモデル」としてよく使用される理由は何ですか? モデルが軽量であるため ネットワークの深さが浅いため パラメータ数が少ないため 多くの異なる画像データセットで良好な性能を発揮するため None 20. WideResNetのようなモデルで「スキップ接続」が無い場合、どのような影響が考えられますか? モデルの性能が向上する モデルのパラメータ数が増加する 学習速度が向上する 勾配消失問題が悪化し、学習が進まなくなる可能性がある None 21. ResNet-50の「50」という数字が示しているのは次のうちどれですか? ネットワークの残差ブロック数 全ての層の合計数(畳み込み層、プーリング層、全結合層の合計) 最終出力の次元数 各ブロックで使用されるカーネルサイズ None 22. seq2seqモデルにおいて「エンコーダ」の役割は何ですか? 入力シーケンスを受け取り、隠れ状態に変換する 出力シーケンスを生成する モデルの重みを最適化する 入力データの次元を削減する None 23. GoogLeNetにおいて「複数の出力層(auxiliary classifiers)」を追加する目的は何ですか? モデルのパラメータ数を増加させるため 中間層でも学習を行い、勾配消失問題を防ぐため 訓練データの量を増やすため 全結合層を削減するため None 24. ResNet/WideResNetにおける「Global Average Pooling(GAP)」の使用は何を目的としていますか? パラメータ数を増加させるため 最終的な特徴マップを集約し、過学習を防ぐため 特徴マップのサイズを増加させるため 勾配消失問題を軽減するため None 25. seq2seqモデルにおいて、入力シーケンスの長さが異なるデータを処理するために最も適している手法はどれですか? 固定長のベクトルに入力シーケンスを切り捨てる パディングを使い、入力シーケンスを同じ長さに揃える 全ての入力シーケンスを同じ長さのデータに変換する 入力シーケンスを無視する None 26. GoogLeNetにおいて「1x1畳み込み」の役割は何ですか? 特徴マップのサイズを縮小するため モデルの計算量を減少させるため 次元削減を行い、計算効率を向上させるため モデルのパラメータ数を増加させるため None 27. ResNetが「オーバーフィッティング」を防ぐために使用する手法は次のうちどれですか? ドロップアウト 残差接続 正則化 L2正則化 None 28. ResNetの設計において、最大の特徴である「残差接続(Residual Connection)」の目的は何ですか? モデルの計算コストを削減するため 非線形性を増加させるため 勾配消失問題を軽減し、深い層でも学習が安定するようにするため モデルのパラメータ数を増加させるため None 29. VGGネットワークの設計において、特徴的な要素は何ですか? 大きなカーネルサイズを持つ畳み込み層 複数の小さい3x3のカーネルを積み重ねる設計 平均プーリングのみを使用する ReLU活性化関数を使用しない None 30. seq2seqモデルにおいて、「BLEUスコア」とは何を測定する指標ですか? モデルの出力シーケンスの生成速度 生成されたシーケンスが、ターゲットシーケンスとどれだけ一致しているかを測定する指標 モデルの損失関数の値 モデルのハイパーパラメータの最適性 None 31. ResNetで使用される「バッチ正規化(Batch Normalization)」の主な役割は何ですか? 学習率を自動で最適化するため モデルの計算量を減らすため 各層の出力を正規化し、学習の安定性を向上させるため 残差接続の効果を無効にするため None 32. WideResNetの幅を増やすことによる「表現力」の向上が、どのようにモデルの性能に影響を与える可能性がありますか? 残差接続が無効になる 表現力が向上することで、より多様な特徴を学習しやすくなり、精度が向上する モデルの精度が低下する 勾配消失問題が発生する None 33. seq2seqモデルにおける「アテンション機構」の役割は何ですか? モデルのトレーニング時間を短縮するため モデルが全ての入力シーケンスを同時に処理するため デコーダがエンコーダの全ての出力に注意を向けて、適切な情報を重視するため モデルがデータをシャッフルするため None 34. BERT(Bidirectional Encoder Representations from Transformers)がTransformerのエンコーダを使用することで、従来のseq2seqモデルに対して持つ利点は何ですか? 単方向の文脈しか学習できないため、情報が失われにくい 両方向の文脈を同時に学習し、より精度の高い文脈理解が可能になるため モデルのサイズが小さくなるため モデルの訓練時間が短縮されるため None 35. GoogLeNetにおいて、各Inceptionモジュールで「3x3の畳み込み層」を使用する理由は何ですか? 計算コストを削減するため 特徴マップのチャネル数を増やすため プーリング層の代わりに使用されるため 中間的なサイズの特徴を学習し、細かいパターンを捉えるため None 36. seq2seqモデルにおける「双方向エンコーダ(Bidirectional Encoder)」の利点は何ですか? モデルの計算コストを削減するため デコーダの性能を向上させるため 入力シーケンスを前方向と後方向の両方から処理し、文脈の理解を深めるため モデルの訓練時間を短縮するため None 37. seq2seqモデルにおいて、「学習時のスケジュールサンプリング」が持つ効果は何ですか? モデルの学習速度を速めるため モデルのパラメータ数を減少させるため 訓練時にモデルが予測したトークンを使い、実運用に近い形で学習するため モデルのハイパーパラメータを自動的に最適化するため None 38. ResNetの「スキップ接続」の動作により、勾配消失問題が軽減される理由は何ですか? 各層の出力がリセットされるため 入力データを直接次の層に渡し、重要な情報を失わないようにするため 層の数が減るため 活性化関数を無効にするため None 39. ResNet-101の主な特徴は次のうちどれですか? 残差ブロックの数が33個である 101層の全てが全結合層で構成されている 101個のカーネルサイズを持つ 残差接続を使用しない None 40. Transformerモデルにおいて「エンコーダスタック」と「デコーダスタック」の役割の違いは何ですか? エンコーダは出力シーケンスを生成し、デコーダは入力シーケンスをエンコードする エンコーダはアテンションを無視し、デコーダはアテンションを利用する エンコーダは入力シーケンスをエンコードし、デコーダはエンコーダの出力に基づいて出力シーケンスを生成する エンコーダは出力シーケンスをシャッフルし、デコーダは元に戻す None 41. 自己回帰型Transformerモデルにおいて「学習時と推論時のギャップ」を軽減する手法はどれですか? スケジュールサンプリング ビームサーチ 正則化 ドロップアウト None 42. seq2seqモデルにおいて、「ペナルティ付きビームサーチ」が適用される理由は何ですか? モデルの訓練時間を短縮するため モデルが無限ループに入るのを防ぐため 短いシーケンスばかりが選ばれるのを防ぎ、より適切な長さのシーケンスを生成するため モデルのパラメータ数を削減するため None 43. seq2seqモデルにおいて、損失関数として「クロスエントロピー損失」がよく使用される理由は何ですか? モデルのトレーニングを自動化できるため データの前処理を省略できるため モデルの出力をバイナリデータに変換するため モデルの出力が確率分布であり、正解ラベルとの誤差を測定するのに適しているため None 44. seq2seqモデルにおける「ビームサーチ」の目的は何ですか? モデルの出力シーケンスを生成する際に、複数の候補を探索し、最適な出力を見つけるため モデルの訓練速度を向上させるため モデルの出力を正規化するため データの前処理を簡略化するため None 45. VGG16とVGG19の違いとして正しいものはどれですか? VGG16は全てのカーネルが5x5で、VGG19は3x3である VGG16は16層、VGG19は19層の畳み込み層と全結合層を持つ VGG16はプーリング層を持たず、VGG19は持つ VGG19はVGG16と比較して、全結合層が1層多い None 46. GoogLeNetで「Global Average Pooling(GAP)」が使用される理由は何ですか? 全結合層を削減し、過学習を防ぐため 特徴マップのサイズを増やすため 活性化関数を最適化するため モデルの計算速度を低下させるため None 47. seq2seqモデルの訓練において、「教師あり学習」としての訓練が行われる理由は何ですか? データの正解ラベルが不必要だから 正解シーケンスを基に、出力シーケンスが正確に生成されるようにするため モデルが自動的にラベルを生成するため データの欠損値を補完するため None 48. VGGネットワークが通常使用する活性化関数は何ですか? Sigmoid関数 Tanh関数 ReLU(Rectified Linear Unit)関数 Softmax関数 None 49. VGGネットワークにおける「ゼロパディング」の主な役割は何ですか? 特徴マップのサイズを固定し、畳み込み層で情報の損失を防ぐため モデルの訓練時間を短縮するため モデルの出力をシャッフルするため モデルの重みを初期化するため None 50. ResNetが「非常に深いネットワーク」においても有効に機能する理由は何ですか? 全ての層で勾配を消失させるため 残差接続が勾配消失問題を防ぎ、層が深くなっても学習が安定するため 全結合層を多用するため 勾配爆発を引き起こすため None Time's up