AI実装検定S級~模擬試験~ 2024年11月3日 ailearn 1. 自己回帰型Transformerモデルにおいて「学習時と推論時のギャップ」を軽減する手法はどれですか? スケジュールサンプリング ビームサーチ 正則化 ドロップアウト None 2. EfficientNetのスケーリング戦略である「Compound Scaling」の目的は何ですか? 計算コストを無視して最大限の精度を追求するため 幅、深さ、解像度をバランスよく拡大し、効率的に精度を向上させるため モデルのパラメータ数を削減するため モデルの訓練時間を短縮するため None 3. VGG16とVGG19の違いとして正しいものはどれですか? VGG16は全てのカーネルが5x5で、VGG19は3x3である VGG16は16層、VGG19は19層の畳み込み層と全結合層を持つ VGG16はプーリング層を持たず、VGG19は持つ VGG19はVGG16と比較して、全結合層が1層多い None 4. seq2seqモデルのデコーダにおいて「Teacher Forcing」が効果的である理由は何ですか? 訓練中にモデルが誤った予測をしても、正解データを使って次のステップの予測ができるから モデルの出力シーケンスを高速化できるから モデルの学習データを自動生成できるから 訓練データの量を削減できるから None 5. GoogLeNetにおいて「1x1畳み込み」の役割は何ですか? 特徴マップのサイズを縮小するため モデルの計算量を減少させるため 次元削減を行い、計算効率を向上させるため モデルのパラメータ数を増加させるため None 6. DenseNetで「成長率(Growth Rate)」が過度に高く設定されると、どのような問題が発生する可能性がありますか? モデルのパラメータ数が増加し、メモリ使用量が大幅に増える 計算コストが減少し、性能が低下する 成長率が高いほどモデルの性能が向上するため問題は発生しない モデルが浅くなり、学習が進まない None 7. DenseNetで「スキップ接続」が無い場合に発生しうる問題は何ですか? 勾配消失問題が発生しやすくなり、学習が進まなくなる モデルのパラメータ数が大幅に減少する 特徴マップのチャネル数が増加する モデルの学習速度が著しく向上する None 8. Transformerモデルにおいて「残差接続(Residual Connection)」の目的は何ですか? モデルの重みを削減するため モデルの学習速度を向上させるため データの前処理を自動化するため 各層の出力に入力を加算し、勾配消失を防ぎ、深いネットワークでも学習を安定化させるため None 9. VGGネットワークが「事前学習済みモデル」としてよく使用される理由は何ですか? モデルが軽量であるため ネットワークの深さが浅いため パラメータ数が少ないため 多くの異なる画像データセットで良好な性能を発揮するため None 10. Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか? モデルの学習速度を向上させる モデルの各層における出力の重要度を評価し、説明可能なAIを実現するため モデルの出力を調整するため データの欠損を補完するため None 11. HREDモデルが通常のseq2seqモデルと異なる点は何ですか? seq2seqモデルは並列処理が可能だが、HREDはできない HREDは発話や文の階層構造を扱うが、seq2seqモデルは単一のシーケンスのみを扱う HREDはTransformerに基づくモデルである HREDは畳み込み層を持つ None 12. Word2VecのSkip-gramモデルが「類似語」を見つけるために利用される理由は何ですか? モデルが単語をクラスタリングできるため 意味的に類似した単語がベクトル空間上で近い位置に配置されるため 単語の出現頻度を基に類似性を測定するため モデルが全ての単語を同じように扱うため None 13. GoogLeNetの「Inception-v3」と「Inception-v1」の主な違いは何ですか? Inception-v1は次元削減を行わないが、Inception-v3は行う Inception-v3は、より効率的な畳み込みや正則化技術を採用している Inception-v1はReLUを使用しないが、Inception-v3は使用する Inception-v3は全ての層にバッチ正規化を適用している None 14. HREDモデルが適用される領域で特に重要な「転移学習」の利点は何ですか? モデルの学習速度を遅くする モデルのパラメータ数を増やす 新しいドメインに少量のデータで適応できる モデルの損失関数を変更する None 15. GoogLeNetの「Inceptionモジュール」における「5x5の畳み込み層」を削除した場合、予想される影響は何ですか? 広域の特徴を学習する能力が低下する モデルの計算量が増加する モデルのパラメータ数が増加する 特徴マップのチャネル数が増加する None 16. Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか? 訓練データのサイズを削減する モデルの各層の出力を全て同時に計算する 複数の異なるアテンションを並行して学習し、文脈の多様な側面を捉える デコーダが全ての入力シーケンスをシャッフルする None 17. MobileNetV2の「インバーテッド残差構造」が従来の残差構造と異なる点は何ですか? 残差接続を削除している 全ての層でReLUを使用していない 非線形活性化を使用していない 高次元空間での特徴抽出後に次元削減を行う None 18. HREDモデルにおいて「ドメイン特化型対話システム」を作成する際に考慮すべき点はどれですか? モデルのパラメータ数を減らす 特定のドメインに特化したデータセットでモデルを訓練し、そのドメインに適した応答生成を行う モデルの学習速度を向上させるために、一般的なデータセットを使用する モデルの出力シーケンスをシャッフルする None 19. HREDモデルが「探索空間の爆発」に対処するために適用される技術は何ですか? ビームサーチ グリーディーサーチ ドロップアウト 学習率の減少 None 20. ResNetの「学習率スケジューリング」が訓練において重要である理由は何ですか? 学習の初期段階で大きな学習率を使用し、後半では小さな学習率を使用して最適な収束を促すため 学習率を一定に保つため 勾配消失問題を解決するため モデルのパラメータ数を増加させるため None 21. GoogLeNetの設計において、Inceptionモジュールを使用する利点は何ですか? 全ての特徴を1つのカーネルサイズで学習する 畳み込み層のパラメータ数を増やす 異なるサイズの特徴を同時に学習し、より多様な特徴抽出が可能になる モデルの学習速度を低下させる None 22. MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか? ReLU6の計算効率をさらに向上させるため ネガティブな出力を増加させるため 特徴抽出のための出力範囲を広げるため 活性化関数の非線形性を減らすため None 23. MobileNetにおいて「Depthwise Separable Convolution」の主な利点は何ですか? ネットワークの層数を増やすため 計算量とパラメータ数を削減するため 特徴抽出能力を低下させるため モデルの学習速度を遅くするため None 24. VGGネットワークを転移学習に使用する際、全結合層を新しいタスクに合わせて再トレーニングする理由は何ですか? 全結合層は画像全体の意味を捉えるため、他のタスクに対応する必要があるから 全結合層は学習済みの重みを使えないため 全結合層の活性化関数が異なるため 全結合層は事前学習に含まれないため None 25. WideResNetのようなモデルで「スキップ接続」が無い場合、どのような影響が考えられますか? モデルの性能が向上する モデルのパラメータ数が増加する 学習速度が向上する 勾配消失問題が悪化し、学習が進まなくなる可能性がある None 26. EfficientNetの主な特徴は何ですか? 深さのみをスケールさせたモデル モデルの幅、解像度、深さをバランスよくスケールさせる 幅を広げることでパフォーマンスを向上させたモデル 全結合層を多用した設計 None 27. Skip-gramモデルで単語ベクトルが生成される際、どのように単語の意味的類似性が表現されますか? 単語の出現頻度に基づいてベクトルが作成される 文法的な関係がベクトルの距離に影響を与える 意味が類似した単語同士は、ベクトル空間上で近い位置に配置される 単語のアルファベット順にベクトルが作成される None 28. DenseNetのアーキテクチャにおける「パラメータ効率の良さ」の主な理由は次のうちどれですか? 残差接続を用いているため 各層が他の層の出力を再利用し、新しいフィルタ数を最小限に抑えるため 活性化関数がReLUの代わりにSigmoidを使用しているため 全ての層で同じフィルタ数を使用しているため None 29. DenseNetの「密結合」構造が、他のモデルと比較してパラメータ効率を向上させる理由は何ですか? 各層が残差接続を使用しているため 活性化関数をReLUからLeaky ReLUに変更しているため 各層が新しいパラメータを必要とせず、既存の特徴を再利用するため 特徴マップの解像度を一定に保っているため None 30. HREDモデルの「文エンコーダ」にLSTMを使用する利点は何ですか? モデルの訓練時間を短縮できる モデルのパラメータ数を減少させる LSTMは勾配消失問題が発生しやすいため LSTMは長期的な依存関係を保持しやすく、文中の単語間の関係をより正確に捉えることができる None 31. VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか? ReLU活性化関数を使用する 重み減衰を適用する 全結合層を削除する バッチ正規化を導入する None 32. DenseNetが他の深層学習モデルに比べて「メモリ効率が高い」と言われる理由は何ですか? モデルのパラメータ数が少ないため トランジションレイヤーが全ての層に適用されているため 特徴マップのサイズを一定に保っているため 各層が特徴マップを再利用し、不要な計算を減らしているため None 33. Transformerモデルにおいて「エンコーダスタック」と「デコーダスタック」の役割の違いは何ですか? エンコーダは出力シーケンスを生成し、デコーダは入力シーケンスをエンコードする エンコーダはアテンションを無視し、デコーダはアテンションを利用する エンコーダは入力シーケンスをエンコードし、デコーダはエンコーダの出力に基づいて出力シーケンスを生成する エンコーダは出力シーケンスをシャッフルし、デコーダは元に戻す None 34. VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか? モデルの層数を増やす ドロップアウト層を導入する 重みのランダム初期化を行う 活性化関数を変更する None 35. Word2VecのSkip-gramモデルにおいて「ウィンドウサイズ」の役割は何ですか? モデルの出力サイズを決定する 中心語から何語までを文脈語として考慮するかを決める モデルの学習率を決定する 単語ベクトルの次元数を決定する None 36. EfficientNet-B7がEfficientNet-B0に比べて優れている点は何ですか? モデルの幅、深さ、解像度が大きくスケーリングされ、精度が高い モデルが軽量で、計算リソースを節約できる 全結合層を使用していないため バッチ正規化が全く使用されていないため None 37. WideResNetが標準のResNetに比べて「計算効率」を高めるために採用している設計方針は次のうちどれですか? 残差ブロックの数を減らし、幅を増やすことで学習速度を向上させる 全ての畳み込み層を1x1に置き換える モデルの深さをさらに増やす 全結合層を削除する None 38. HREDモデルにおいて「デコーダ」の役割は何ですか? コンテキストエンコーダの出力に基づいて、次の文や発話を生成する 各単語をエンコードする モデルの損失関数を計算する モデルの学習率を調整する None 39. seq2seqモデルのエンコーダにおいて、「長短期記憶(LSTM)」を用いるメリットとして正しいものはどれですか? モデルの学習時間を短縮できる 長期的な依存関係を保持しやすく、勾配消失問題を回避できる デコーダの出力を最適化する パディングを行わずに入力シーケンスを処理できる None 40. ResNetが「非常に深いネットワーク」においても有効に機能する理由は何ですか? 全ての層で勾配を消失させるため 残差接続が勾配消失問題を防ぎ、層が深くなっても学習が安定するため 全結合層を多用するため 勾配爆発を引き起こすため None 41. ResNetの「ボトルネックブロック」が非常に深い層でも有効に機能する理由は何ですか? パラメータ数を減らすことで計算効率を向上させ、勾配消失を防ぐため 各層で出力を増加させるため 全結合層を使用しないため 活性化関数を削除するため None 42. HREDモデルにおいて「対話型システム」でよく使用される理由は何ですか? 生成された文を短縮できる 音声認識に特化しているため ユーザーの過去の発話や文脈を保持し、より自然な応答を生成できるため モデルのパラメータ数が少ないため None 43. ResNetで使用される「バッチ正規化(Batch Normalization)」の主な役割は何ですか? 学習率を自動で最適化するため モデルの計算量を減らすため 各層の出力を正規化し、学習の安定性を向上させるため 残差接続の効果を無効にするため None 44. Skip-gramモデルにおける「負のサンプリング(Negative Sampling)」で、正例と負例の比率を調整する理由は何ですか? モデルの精度を向上させるため 正例が多すぎると過学習が発生するため 負例が多すぎるとモデルの学習が遅くなるため 正例と負例のバランスを取り、効率的な学習を行うため None 45. seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか? モデルの出力を最適化する モデルの誤差を修正する モデルの学習率を調整する エンコーダが入力シーケンスをエンコードした結果をまとめ、デコーダに渡す情報を要約する None 46. Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか? モデルの学習を開始する前に、学習率を徐々に増加させて安定した学習を行うため モデルの重みを初期化するため モデルの過学習を防ぐため データの正規化を行うため None 47. Transformerモデルにおいて「Layer Normalization(層正規化)」が行われる主な理由は何ですか? モデルの出力を正規化して勾配爆発や消失を防ぐため モデルのサイズを削減するため モデルのトレーニング速度を遅くするため データを自動で前処理するため None 48. GoogLeNetの設計において「枝分かれしたネットワーク(分岐)」を採用する理由は何ですか? モデルの計算速度を向上させるため モデルのパラメータ数を削減するため 単一の出力に依存することを防ぐため 異なる解像度で特徴を学習し、モデルの汎用性を高めるため None 49. GoogLeNetが従来のCNNモデルよりも効率的に計算できる理由は何ですか? モデルの層が浅いため 1x1の畳み込みによる次元削減が計算量を大幅に削減するため 重みがランダムに初期化されているため プーリング層が使用されていないため None 50. VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか? 特徴マップのサイズを増加させる モデルの計算速度を遅くするため 重要な特徴を抽出し、特徴マップのサイズを縮小するため モデルの出力サイズを固定するため None Time's up