AI実装検定S級~模擬試験①~ 2024年12月8日2025年3月1日 ailearn 1. seq2seqモデルにおける「ビームサーチ」の目的は何ですか? モデルの出力シーケンスを生成する際に、複数の候補を探索し、最適な出力を見つけるため モデルの訓練速度を向上させるため モデルの出力を正規化するため データの前処理を簡略化するため None 2. seq2seqモデルにおいて、「BLEUスコア」とは何を測定する指標ですか? モデルの出力シーケンスの生成速度 生成されたシーケンスが、ターゲットシーケンスとどれだけ一致しているかを測定する指標 モデルの損失関数の値 モデルのハイパーパラメータの最適性 None 3. seq2seqモデルの性能評価において、「精度」よりも「F1スコア」を使用する理由は何ですか? 精度が高いと過学習が発生するから 精度がクラス不均衡なデータセットに対して適切でない場合があるから F1スコアはモデルのトレーニング時間を減少させるから F1スコアはデータ前処理を必要としないから None 4. seq2seqモデルにおいて、損失関数として「クロスエントロピー損失」がよく使用される理由は何ですか? モデルのトレーニングを自動化できるため データの前処理を省略できるため モデルの出力をバイナリデータに変換するため モデルの出力が確率分布であり、正解ラベルとの誤差を測定するのに適しているため None 5. GoogLeNetの「Inceptionモジュール」における「5x5の畳み込み層」を削除した場合、予想される影響は何ですか? 広域の特徴を学習する能力が低下する モデルの計算量が増加する モデルのパラメータ数が増加する 特徴マップのチャネル数が増加する None 6. GoogLeNetの「Inception-v3」と「Inception-v1」の主な違いは何ですか? Inception-v1は次元削減を行わないが、Inception-v3は行う Inception-v3は、より効率的な畳み込みや正則化技術を採用している Inception-v1はReLUを使用しないが、Inception-v3は使用する Inception-v3は全ての層にバッチ正規化を適用している None 7. ResNetの「スキップ接続」の動作により、勾配消失問題が軽減される理由は何ですか? 各層の出力がリセットされるため 入力データを直接次の層に渡し、重要な情報を失わないようにするため 層の数が減るため 活性化関数を無効にするため None 8. WideResNetの幅を増やすことによる「表現力」の向上が、どのようにモデルの性能に影響を与える可能性がありますか? 残差接続が無効になる 表現力が向上することで、より多様な特徴を学習しやすくなり、精度が向上する モデルの精度が低下する 勾配消失問題が発生する None 9. VGGネットワークが「事前学習済みモデル」としてよく使用される理由は何ですか? モデルが軽量であるため ネットワークの深さが浅いため パラメータ数が少ないため 多くの異なる画像データセットで良好な性能を発揮するため None 10. VGGネットワークの設計において、特徴的な要素は何ですか? 大きなカーネルサイズを持つ畳み込み層 複数の小さい3x3のカーネルを積み重ねる設計 平均プーリングのみを使用する ReLU活性化関数を使用しない None 11. Transformerモデルにおける「マルチヘッドアテンション」の目的は何ですか? 学習速度を向上させるため 複数の異なるアテンションを同時に学習し、文脈の多様な側面を捉えるため データのノイズを削除するため モデルのサイズを小さくするため None 12. Transformerモデルにおいて「Layer Normalization(層正規化)」が行われる主な理由は何ですか? モデルの出力を正規化して勾配爆発や消失を防ぐため モデルのサイズを削減するため モデルのトレーニング速度を遅くするため データを自動で前処理するため None 13. ResNetで使用される「バッチ正規化(Batch Normalization)」の主な役割は何ですか? 学習率を自動で最適化するため モデルの計算量を減らすため 各層の出力を正規化し、学習の安定性を向上させるため 残差接続の効果を無効にするため None 14. Transformerモデルにおいて、「位置的注意スコア」はどのように計算されますか? 出力とターゲットシーケンスの距離に基づいて計算される エンコーダとデコーダの出力を直接比較する モデルの重みから自動計算される クエリとキーの内積を計算し、それをソフトマックスで正規化する None 15. GoogLeNetが「事前学習済みモデル」として広く使用される理由は何ですか? モデルが軽量であるため 事前学習された特徴が他のタスクに適用できないため 異なる画像データセットに対しても高い性能を発揮するため モデルの層が浅いため None 16. VGG16とVGG19の違いとして正しいものはどれですか? VGG16は全てのカーネルが5x5で、VGG19は3x3である VGG16は16層、VGG19は19層の畳み込み層と全結合層を持つ VGG16はプーリング層を持たず、VGG19は持つ VGG19はVGG16と比較して、全結合層が1層多い None 17. VGGネットワークが多くのパラメータを持つことの欠点を軽減するために、近年利用される技術は何ですか? データ拡張 モデルの蒸留 転移学習 プルーニング(剪定) None 18. GoogLeNetにおいて、各Inceptionモジュールで「3x3の畳み込み層」を使用する理由は何ですか? 計算コストを削減するため 特徴マップのチャネル数を増やすため プーリング層の代わりに使用されるため 中間的なサイズの特徴を学習し、細かいパターンを捉えるため None 19. GoogLeNetの訓練において、学習率スケジューリングを使用する理由は何ですか? モデルの訓練時間を増やすため モデルのパラメータ数を増やすため 学習が進むにつれて学習率を徐々に減少させ、最適な収束を促すため 勾配消失問題を防ぐため None 20. ResNetで「恒等写像(Identity Mapping)」が重要な理由は何ですか? 残差接続の計算を簡単にするため 活性化関数を適用しないため 各ブロックがそのままの情報を保持し、特徴を消失させないため モデルの層数を増やすため None 21. ResNetで「勾配消失問題」を防ぐための他の手法として考えられるものは次のうちどれですか? 全結合層を削除する 残差接続を無効にする バッチ正規化を導入する パラメータをランダムに初期化する None 22. GoogLeNetのInceptionモジュールにおいて、「1x1の畳み込み層」を事前に適用しない場合、どういった問題が発生する可能性がありますか? モデルの性能が向上する 計算量が大幅に増加し、訓練に時間がかかる 特徴マップのサイズが増加しすぎて、過学習が発生する モデルのパラメータ数が減少する None 23. VGGネットワークが「パラメータ数が多い」という点が意味するものは何ですか? モデルが計算資源を多く消費し、メモリ使用量が増える 訓練データの量が少なくても高い性能を発揮する モデルの訓練時間が短くなる パラメータチューニングが不要になる None 24. ResNetの「ボトルネックブロック」が非常に深い層でも有効に機能する理由は何ですか? パラメータ数を減らすことで計算効率を向上させ、勾配消失を防ぐため 各層で出力を増加させるため 全結合層を使用しないため 活性化関数を削除するため None 25. Transformerモデルにおける「ドロップアウト」の目的は何ですか? 訓練中に一部のニューロンをランダムに無効化し、過学習を防ぐ モデルの学習速度を向上させる モデルのハイパーパラメータを調整する モデルの出力シーケンスをシャッフルする None 26. GoogLeNetの設計において、Inceptionモジュールを使用する利点は何ですか? 全ての特徴を1つのカーネルサイズで学習する 畳み込み層のパラメータ数を増やす 異なるサイズの特徴を同時に学習し、より多様な特徴抽出が可能になる モデルの学習速度を低下させる None 27. VGGネットワークの層の総数が多い理由は何ですか? 複雑な画像処理をシンプルにするため 各層で異なるレベルの特徴を学習し、高次の抽象的特徴を得るため 各層のパラメータ数を減らすため モデルの訓練を容易にするため None 28. seq2seqモデルで「デコーダ」が生成するのは何ですか? 入力シーケンスの次元数 出力シーケンス モデルの重み エンコーダの隠れ状態 None 29. Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか? モデルの学習速度を向上させる モデルの各層における出力の重要度を評価し、説明可能なAIを実現するため モデルの出力を調整するため データの欠損を補完するため None 30. Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか? モデルの学習を開始する前に、学習率を徐々に増加させて安定した学習を行うため モデルの重みを初期化するため モデルの過学習を防ぐため データの正規化を行うため None 31. WideResNetが「深さ」を増やす代わりに「幅」を増やす選択をする理由は何ですか? 訓練データの量を減らすため 計算量を削減するため 勾配消失問題を軽減しつつ、より多様な特徴を学習するため モデルのパラメータ数を減らすため None 32. seq2seqモデルにおいて、LSTM(Long Short-Term Memory)がRNNに比べて優れている点は何ですか? 訓練データのサイズを自動的に削減できる 勾配消失問題を軽減し、長期的な依存関係を学習できる モデルの学習速度を向上させる 出力の次元数を減らす None 33. GoogLeNetの「Inceptionモジュール」の設計において、次元削減を行わないとどのような影響がありますか? モデルの性能が向上する モデルのパラメータ数が減少する モデルの学習速度が向上する モデルの計算量が増加し、メモリ使用量が大幅に増加する None 34. Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか? 訓練データのサイズを削減する モデルの各層の出力を全て同時に計算する 複数の異なるアテンションを並行して学習し、文脈の多様な側面を捉える デコーダが全ての入力シーケンスをシャッフルする None 35. seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか? モデルの出力を最適化する モデルの誤差を修正する モデルの学習率を調整する エンコーダが入力シーケンスをエンコードした結果をまとめ、デコーダに渡す情報を要約する None 36. GoogLeNetで「Global Average Pooling(GAP)」が使用される理由は何ですか? 全結合層を削減し、過学習を防ぐため 特徴マップのサイズを増やすため 活性化関数を最適化するため モデルの計算速度を低下させるため None 37. VGGネットワークが従来のCNNモデルと比較して持つ利点は何ですか? 訓練時間が大幅に短縮される より浅いネットワークで同等の性能を達成する より深い層を使用することで、より抽象的な特徴を学習できる 全結合層を減らすことでパラメータ数が減る None 38. VGGネットワークの「プーリング層」の主な役割は何ですか? 畳み込み層の出力を正規化するため モデルのパラメータ数を増加させるため モデルの訓練時間を増加させるため 特徴マップのサイズを縮小し、重要な特徴を抽出するため None 39. seq2seqモデルで使用される基本的なアーキテクチャはどれですか? 畳み込みニューラルネットワーク (CNN) 再帰型ニューラルネットワーク (RNN) ガウス過程 (Gaussian Process) ランダムフォレスト (Random Forest) None 40. seq2seqモデルにおいて、「ペナルティ付きビームサーチ」が適用される理由は何ですか? モデルの訓練時間を短縮するため モデルが無限ループに入るのを防ぐため 短いシーケンスばかりが選ばれるのを防ぎ、より適切な長さのシーケンスを生成するため モデルのパラメータ数を削減するため None 41. VGGネットワークで「カーネルサイズを小さくする」設計の意図は何ですか? モデルの精度を低下させるため 訓練データを削減するため パラメータ数を削減しながら、同等の受容野を確保するため モデルの出力サイズを変更するため None 42. VGGネットワークが通常使用する活性化関数は何ですか? Sigmoid関数 Tanh関数 ReLU(Rectified Linear Unit)関数 Softmax関数 None 43. ResNetの設計において、最大の特徴である「残差接続(Residual Connection)」の目的は何ですか? モデルの計算コストを削減するため 非線形性を増加させるため 勾配消失問題を軽減し、深い層でも学習が安定するようにするため モデルのパラメータ数を増加させるため None 44. GoogLeNetで「バッチ正規化」を適用することで期待される効果は何ですか? モデルの学習が安定し、収束速度が向上する モデルのパラメータ数が減少する 活性化関数が不要になる モデルの計算量が増加する None 45. TransformerモデルがRNNベースのseq2seqモデルと比較して持つ利点はどれですか? モデルのパラメータ数が少ない 時系列処理に依存せず、並列処理が可能で学習が高速化される 学習に多くのデータが必要 モデルが入力シーケンスを自動で正規化する None 46. ResNet/WideResNetにおける「Global Average Pooling(GAP)」の使用は何を目的としていますか? パラメータ数を増加させるため 最終的な特徴マップを集約し、過学習を防ぐため 特徴マップのサイズを増加させるため 勾配消失問題を軽減するため None 47. GoogLeNetにおいて「1x1畳み込み」の役割は何ですか? 特徴マップのサイズを縮小するため モデルの計算量を減少させるため 次元削減を行い、計算効率を向上させるため モデルのパラメータ数を増加させるため None 48. Transformerモデルがseq2seqモデルに対して持つ最大の利点は何ですか? アテンション機構のみを使用することで、並列処理が可能であり、長いシーケンスでも効率的に処理できるため モデルのサイズを削減するため パラメータ数を減らすため モデルの訓練時間を短縮するため None 49. VGGネットワークを転移学習に使用する際、全結合層を新しいタスクに合わせて再トレーニングする理由は何ですか? 全結合層は画像全体の意味を捉えるため、他のタスクに対応する必要があるから 全結合層は学習済みの重みを使えないため 全結合層の活性化関数が異なるため 全結合層は事前学習に含まれないため None 50. VGGネットワークの全結合層を削減した場合、予想される効果は何ですか? モデルの精度が大幅に向上する パラメータ数が減少し、メモリ使用量が少なくなる モデルの計算速度が遅くなる モデルの訓練が困難になる None Time's up