AI実装検定S級~模擬試験①~ 2024年12月8日2025年3月1日 ailearn 1. WideResNetの主な目的は何ですか? モデルの深さを増やすため 活性化関数を変更するため モデルのパラメータ数を削減するため 残差ブロックの幅(チャネル数)を増やして、計算量を減らしつつ性能を向上させるため None 2. Transformerモデルにおける「ドロップアウト」の目的は何ですか? 訓練中に一部のニューロンをランダムに無効化し、過学習を防ぐ モデルの学習速度を向上させる モデルのハイパーパラメータを調整する モデルの出力シーケンスをシャッフルする None 3. VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか? 特徴マップのサイズを増加させる モデルの計算速度を遅くするため 重要な特徴を抽出し、特徴マップのサイズを縮小するため モデルの出力サイズを固定するため None 4. VGGネットワークの設計において「全結合層」を使用する目的は何ですか? 特徴マップのサイズを減らすため 畳み込み層で抽出した特徴を元に、最終的なクラス分類を行うため モデルのパラメータ数を削減するため 活性化関数を変更するため None 5. Transformerモデルにおいて、「位置的注意スコア」はどのように計算されますか? 出力とターゲットシーケンスの距離に基づいて計算される エンコーダとデコーダの出力を直接比較する モデルの重みから自動計算される クエリとキーの内積を計算し、それをソフトマックスで正規化する None 6. Transformerモデルにおける「マルチヘッドアテンション」の目的は何ですか? 学習速度を向上させるため 複数の異なるアテンションを同時に学習し、文脈の多様な側面を捉えるため データのノイズを削除するため モデルのサイズを小さくするため None 7. GoogLeNetにおいて「1x1畳み込み」の役割は何ですか? 特徴マップのサイズを縮小するため モデルの計算量を減少させるため 次元削減を行い、計算効率を向上させるため モデルのパラメータ数を増加させるため None 8. WideResNetが標準のResNetに比べて「計算効率」を高めるために採用している設計方針は次のうちどれですか? 残差ブロックの数を減らし、幅を増やすことで学習速度を向上させる 全ての畳み込み層を1x1に置き換える モデルの深さをさらに増やす 全結合層を削除する None 9. seq2seqモデルにおいて、「ペナルティ付きビームサーチ」が適用される理由は何ですか? モデルの訓練時間を短縮するため モデルが無限ループに入るのを防ぐため 短いシーケンスばかりが選ばれるのを防ぎ、より適切な長さのシーケンスを生成するため モデルのパラメータ数を削減するため None 10. seq2seqモデルの性能評価において、「精度」よりも「F1スコア」を使用する理由は何ですか? 精度が高いと過学習が発生するから 精度がクラス不均衡なデータセットに対して適切でない場合があるから F1スコアはモデルのトレーニング時間を減少させるから F1スコアはデータ前処理を必要としないから None 11. GPT-3のような自己回帰型モデルにおいて「注意欠陥」が起こる理由は何ですか? モデルが過去の情報に過剰に依存しすぎるため モデルが同じトークンに繰り返し注意を向けるため モデルが次のトークンを生成する際に、遠い過去の情報を無視する可能性があるため モデルが文法的な構造を理解しないため None 12. VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか? モデルの層数を増やす ドロップアウト層を導入する 重みのランダム初期化を行う 活性化関数を変更する None 13. Transformerモデルにおいて「Layer Normalization(層正規化)」が行われる主な理由は何ですか? モデルの出力を正規化して勾配爆発や消失を防ぐため モデルのサイズを削減するため モデルのトレーニング速度を遅くするため データを自動で前処理するため None 14. VGGネットワークの全結合層を削減した場合、予想される効果は何ですか? モデルの精度が大幅に向上する パラメータ数が減少し、メモリ使用量が少なくなる モデルの計算速度が遅くなる モデルの訓練が困難になる None 15. 「クロスアテンション」とは何ですか? 自己注意機構と同様に動作し、入力シーケンス内の関係性を学習する デコーダ内でのみ使用されるアテンション機構 エンコーダとデコーダ間で異なるシーケンスに対して注意を向ける機構 同じシーケンス内で注意を向ける機構 None 16. GoogLeNetにおける「正則化技術」が必要とされる理由は何ですか? モデルが非常に深いため、過学習のリスクが高まるから モデルの計算量を増やすため モデルの精度を低下させるため モデルの訓練時間を短縮するため None 17. ResNetで「恒等写像(Identity Mapping)」が重要な理由は何ですか? 残差接続の計算を簡単にするため 活性化関数を適用しないため 各ブロックがそのままの情報を保持し、特徴を消失させないため モデルの層数を増やすため None 18. seq2seqモデルのエンコーダにおいて、「長短期記憶(LSTM)」を用いるメリットとして正しいものはどれですか? モデルの学習時間を短縮できる 長期的な依存関係を保持しやすく、勾配消失問題を回避できる デコーダの出力を最適化する パディングを行わずに入力シーケンスを処理できる None 19. Transformerモデルにおいて「残差接続(Residual Connection)」の目的は何ですか? モデルの重みを削減するため モデルの学習速度を向上させるため データの前処理を自動化するため 各層の出力に入力を加算し、勾配消失を防ぎ、深いネットワークでも学習を安定化させるため None 20. GPT-3のような大規模言語モデルにおいて「Few-shot learning」が効果的である理由は何ですか? モデルが少量のデータで即座に新しいタスクを学習できるため モデルのパラメータ数が少ないため、学習が効率的に進む モデルのハイパーパラメータを最適化するため モデルが並列処理を行うため None 21. seq2seqモデルにおいて、「BLEUスコア」とは何を測定する指標ですか? モデルの出力シーケンスの生成速度 生成されたシーケンスが、ターゲットシーケンスとどれだけ一致しているかを測定する指標 モデルの損失関数の値 モデルのハイパーパラメータの最適性 None 22. GoogLeNetが「事前学習済みモデル」として広く使用される理由は何ですか? モデルが軽量であるため 事前学習された特徴が他のタスクに適用できないため 異なる画像データセットに対しても高い性能を発揮するため モデルの層が浅いため None 23. VGGネットワークが「パラメータ数が多い」という点が意味するものは何ですか? モデルが計算資源を多く消費し、メモリ使用量が増える 訓練データの量が少なくても高い性能を発揮する モデルの訓練時間が短くなる パラメータチューニングが不要になる None 24. VGG16とVGG19の違いとして正しいものはどれですか? VGG16は全てのカーネルが5x5で、VGG19は3x3である VGG16は16層、VGG19は19層の畳み込み層と全結合層を持つ VGG16はプーリング層を持たず、VGG19は持つ VGG19はVGG16と比較して、全結合層が1層多い None 25. BERTモデルで使用される「マスク付き言語モデル(MLM)」の目的は何ですか? モデルの重みを削減するため 一部の単語を隠し、それを予測するタスクを通じて文脈を学習させるため モデルの学習速度を向上させるため モデルのサイズを最適化するため None 26. Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか? モデルの学習速度を向上させる モデルの各層における出力の重要度を評価し、説明可能なAIを実現するため モデルの出力を調整するため データの欠損を補完するため None 27. seq2seqモデルの訓練において、「教師あり学習」としての訓練が行われる理由は何ですか? データの正解ラベルが不必要だから 正解シーケンスを基に、出力シーケンスが正確に生成されるようにするため モデルが自動的にラベルを生成するため データの欠損値を補完するため None 28. seq2seqモデルにおいて「エンコーダ」の役割は何ですか? 入力シーケンスを受け取り、隠れ状態に変換する 出力シーケンスを生成する モデルの重みを最適化する 入力データの次元を削減する None 29. GoogLeNetにおいて「複数の出力層(auxiliary classifiers)」を追加する目的は何ですか? モデルのパラメータ数を増加させるため 中間層でも学習を行い、勾配消失問題を防ぐため 訓練データの量を増やすため 全結合層を削減するため None 30. ResNetで「非常に深いネットワーク」を使用するとき、勾配消失問題を完全に解決できない場合、他にどのような問題が発生する可能性がありますか? モデルの精度が大幅に向上する ネットワークが適切に収束せず、精度が低下する 残差接続が無効になる モデルのパラメータ数が減少する None 31. ResNetの設計における「ボトルネックブロック」の役割は何ですか? モデルの出力層の次元を増やす 残差ブロックのパラメータ数を削減しつつ、同等の表現力を保つ 勾配消失を引き起こす 全結合層の数を増やす None 32. VGGネットワークで「カーネルサイズを小さくする」設計の意図は何ですか? モデルの精度を低下させるため 訓練データを削減するため パラメータ数を削減しながら、同等の受容野を確保するため モデルの出力サイズを変更するため None 33. seq2seqモデルにおいて、「学習時のスケジュールサンプリング」が持つ効果は何ですか? モデルの学習速度を速めるため モデルのパラメータ数を減少させるため 訓練時にモデルが予測したトークンを使い、実運用に近い形で学習するため モデルのハイパーパラメータを自動的に最適化するため None 34. seq2seqモデルにおける「双方向エンコーダ(Bidirectional Encoder)」の利点は何ですか? モデルの計算コストを削減するため デコーダの性能を向上させるため 入力シーケンスを前方向と後方向の両方から処理し、文脈の理解を深めるため モデルの訓練時間を短縮するため None 35. GPT(Generative Pre-trained Transformer)モデルがBERTとは異なる点は何ですか? GPTは双方向の文脈を同時に学習するが、BERTは単方向の文脈しか学習しない GPTは単方向の文脈を学習し、テキスト生成タスクに特化している GPTはエンコーダのみを使用し、BERTはデコーダのみを使用する GPTは翻訳タスク専用で、BERTは分類タスク専用である None 36. GoogLeNetの「Inception-v3」と「Inception-v1」の主な違いは何ですか? Inception-v1は次元削減を行わないが、Inception-v3は行う Inception-v3は、より効率的な畳み込みや正則化技術を採用している Inception-v1はReLUを使用しないが、Inception-v3は使用する Inception-v3は全ての層にバッチ正規化を適用している None 37. seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか? 全ての入力シーケンスに均等に注意を向けるため エンコーダの全ての隠れ状態にアクセスすることで、長いシーケンスの情報を劣化させずに利用できるため モデルの訓練時間を短縮するため デコーダの性能を低下させないため None 38. WideResNetが「深さ」を増やす代わりに「幅」を増やす選択をする理由は何ですか? 訓練データの量を減らすため 計算量を削減するため 勾配消失問題を軽減しつつ、より多様な特徴を学習するため モデルのパラメータ数を減らすため None 39. ResNetで「勾配消失問題」を防ぐための他の手法として考えられるものは次のうちどれですか? 全結合層を削除する 残差接続を無効にする バッチ正規化を導入する パラメータをランダムに初期化する None 40. seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか? モデルの出力を最適化する モデルの誤差を修正する モデルの学習率を調整する エンコーダが入力シーケンスをエンコードした結果をまとめ、デコーダに渡す情報を要約する None 41. ResNetの「学習率スケジューリング」が訓練において重要である理由は何ですか? 学習の初期段階で大きな学習率を使用し、後半では小さな学習率を使用して最適な収束を促すため 学習率を一定に保つため 勾配消失問題を解決するため モデルのパラメータ数を増加させるため None 42. WideResNetの幅を増やすことによる「表現力」の向上が、どのようにモデルの性能に影響を与える可能性がありますか? 残差接続が無効になる 表現力が向上することで、より多様な特徴を学習しやすくなり、精度が向上する モデルの精度が低下する 勾配消失問題が発生する None 43. VGGネットワークの「プーリング層」の主な役割は何ですか? 畳み込み層の出力を正規化するため モデルのパラメータ数を増加させるため モデルの訓練時間を増加させるため 特徴マップのサイズを縮小し、重要な特徴を抽出するため None 44. GoogLeNetで「バッチ正規化」を適用することで期待される効果は何ですか? モデルの学習が安定し、収束速度が向上する モデルのパラメータ数が減少する 活性化関数が不要になる モデルの計算量が増加する None 45. GoogLeNetの設計において、「dropout」を使用する理由は何ですか? モデルの訓練速度を向上させるため モデルのパラメータ数を増やすため 過学習を防ぎ、モデルの汎化性能を高めるため モデルの出力をシャッフルするため None 46. Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか? モデルの学習を開始する前に、学習率を徐々に増加させて安定した学習を行うため モデルの重みを初期化するため モデルの過学習を防ぐため データの正規化を行うため None 47. seq2seqモデルにおいて、損失関数として「クロスエントロピー損失」がよく使用される理由は何ですか? モデルのトレーニングを自動化できるため データの前処理を省略できるため モデルの出力をバイナリデータに変換するため モデルの出力が確率分布であり、正解ラベルとの誤差を測定するのに適しているため None 48. BERT(Bidirectional Encoder Representations from Transformers)がTransformerのエンコーダを使用することで、従来のseq2seqモデルに対して持つ利点は何ですか? 単方向の文脈しか学習できないため、情報が失われにくい 両方向の文脈を同時に学習し、より精度の高い文脈理解が可能になるため モデルのサイズが小さくなるため モデルの訓練時間が短縮されるため None 49. Transformerモデルにおいて「エンコーダスタック」と「デコーダスタック」の役割の違いは何ですか? エンコーダは出力シーケンスを生成し、デコーダは入力シーケンスをエンコードする エンコーダはアテンションを無視し、デコーダはアテンションを利用する エンコーダは入力シーケンスをエンコードし、デコーダはエンコーダの出力に基づいて出力シーケンスを生成する エンコーダは出力シーケンスをシャッフルし、デコーダは元に戻す None 50. Transformerモデルがseq2seqモデルに対して持つ最大の利点は何ですか? アテンション機構のみを使用することで、並列処理が可能であり、長いシーケンスでも効率的に処理できるため モデルのサイズを削減するため パラメータ数を減らすため モデルの訓練時間を短縮するため None Time's up