AI実装検定S級~模擬試験②~ 2024年12月8日2024年12月8日 ailearn 1. EfficientNetで使用される「バッチ正規化(Batch Normalization)」の役割は何ですか? モデルのパラメータ数を削減する 全ての層で活性化関数を無効にする 各層の出力を正規化し、学習の安定性を向上させる モデルの幅を調整する None 2. Skip-gramモデルにおける「単語ベクトル」の次元数が増えると、何が改善される可能性がありますか? モデルの計算速度が向上する モデルの過学習が防止される 単語間の意味的な関係がより詳細に捉えられるようになる モデルの出力サイズが固定される None 3. HREDモデルの訓練時に「長短期記憶(LSTM)」と「ゲート付きリカレントユニット(GRU)」のどちらを使用するか選択する際のポイントは何ですか? モデルのパラメータ数がLSTMよりもGRUの方が少なく、計算が高速になるため LSTMの方がGRUよりも常に優れているため GRUは勾配消失問題を完全に解決できるため GRUは学習速度が遅いため None 4. Skip-gramモデルの訓練時に「バッチサイズ」を大きくすることの利点は何ですか? モデルの計算時間を減少させる モデルの訓練が安定し、ノイズが少なくなる モデルのパラメータ数が増える 学習率を自動的に最適化する None 5. MobileNetV2がMobileNetV1に比べてパフォーマンスが向上した主な理由は何ですか? Depthwise Separable Convolutionを使用しなくなったため インバーテッド残差構造とリニアボトルネックを導入したため モデルの幅を狭くしたため 1x1の畳み込みを削除したため None 6. HREDモデルにおける「コンテキストエンコーダ」の役割は何ですか? 全体の文脈情報をエンコードし、各文の情報を統合する 各文の意味をエンコードする モデルの重みを最適化する モデルの学習率を調整する None 7. EfficientNetの「Compound Scaling」を調整する際、幅を大きくスケーリングしすぎるとどのような問題が発生しますか? モデルの深さが減少し、学習が不安定になる 計算コストが減少しすぎ、精度が著しく低下する 特徴マップのチャネル数が減少しすぎて、表現力が低下する モデルの計算コストが大幅に増加し、効率が低下する None 8. MobileNetが「軽量」でありながら「高精度」を維持できる理由は次のうちどれですか? モデルの深さを増やしているため 分離可能な畳み込み(Depthwise Separable Convolution)や次元削減を効率的に使用しているため 全ての層でReLUを使用しているため 残差接続を多用しているため None 9. MobileNetにおいて、分類タスクで「Global Average Pooling(GAP)」を使用する主な目的は何ですか? モデルのパラメータ数を増やすため 特徴マップを平均化し、全結合層の代わりに出力を生成するため 活性化関数を変更するため 特徴マップのチャネル数を削減するため None 10. MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか? ReLU6の計算効率をさらに向上させるため ネガティブな出力を増加させるため 特徴抽出のための出力範囲を広げるため 活性化関数の非線形性を減らすため None 11. MobileNetが主に使用されるアプリケーション分野はどれですか? モバイル端末や組み込みシステムなどの計算資源が限られた環境 高性能なサーバーでのバッチ処理 大規模なデータセットのトレーニング 分散コンピューティング環境 None 12. DenseNetの「トランジションレイヤー」において、プーリング操作が行われる理由は何ですか? 特徴マップの解像度を縮小し、計算コストを削減するため 特徴マップのチャネル数を増やすため モデルのパラメータ数を削減するため 勾配消失を防ぐため None 13. HREDモデルの「グローバル文脈」と「ローカル文脈」の役割を正しく説明したものはどれですか? グローバル文脈は各文の詳細を扱い、ローカル文脈は全体の流れを保持する グローバル文脈は長期的な文脈を保持し、ローカル文脈は現在の文や発話の情報を保持する グローバル文脈は現在の文の情報を保持し、ローカル文脈は長期的な文脈を扱う グローバル文脈は文の出力を生成し、ローカル文脈は入力シーケンスをエンコードする None 14. EfficientNetにおける「Squeeze-and-Excitation(SE)」ブロックを適用することで期待できる効果は何ですか? パラメータ数が削減され、計算コストが減少する チャネルごとの重要度を学習し、精度が向上する 計算コストが大幅に増加する モデルのスケーリングが無効になる None 15. Skip-gramモデルが大規模なデータセットで効果的に機能する理由は何ですか? モデルが全ての単語ペアを一度に処理するため 中心語と文脈語のペアが多く生成され、豊富な意味的関係を学習できるため モデルが単語の出現頻度に依存しないため モデルが文の構造を無視するため None 16. MobileNetで使用される「ReLU6」の活性化関数は、どのような利点がありますか? ネガティブな値を強調するため 活性化出力を大幅に増加させるため 計算精度をFP16などの低精度演算に適応させるため モデルのパラメータ数を削減するため None 17. MobileNetの最大の特徴は次のうちどれですか? モデルのパラメータ数を増やして高精度を実現する 分離可能な畳み込み(Depthwise Separable Convolution)による効率的な計算 大規模な計算リソースを必要とする 全結合層を削除している None 18. DenseNetで「成長率(Growth Rate)」が過度に高く設定されると、どのような問題が発生する可能性がありますか? モデルのパラメータ数が増加し、メモリ使用量が大幅に増える 計算コストが減少し、性能が低下する 成長率が高いほどモデルの性能が向上するため問題は発生しない モデルが浅くなり、学習が進まない None 19. Word2VecのSkip-gramモデルにおける「ウィンドウサイズ」が大きすぎると、どのような問題が発生する可能性がありますか? 単語の類似性が低下する ノイズが増加し、関連性の低い単語が学習される可能性がある モデルのパラメータが減少する 単語の出現回数が増加する None 20. EfficientNetのスケーリング戦略である「Compound Scaling」の目的は何ですか? 計算コストを無視して最大限の精度を追求するため 幅、深さ、解像度をバランスよく拡大し、効率的に精度を向上させるため モデルのパラメータ数を削減するため モデルの訓練時間を短縮するため None 21. EfficientNet-B7がEfficientNet-B0に比べて優れている点は何ですか? モデルの幅、深さ、解像度が大きくスケーリングされ、精度が高い モデルが軽量で、計算リソースを節約できる 全結合層を使用していないため バッチ正規化が全く使用されていないため None 22. DenseNetにおいて「バッチ正規化(Batch Normalization)」が使用される主な理由は何ですか? 各層の出力を正規化し、学習の安定性を向上させるため パラメータ数を減らすため モデルの解像度を上げるため 特徴マップのサイズを増やすため None 23. EfficientNetにおいて「MBConvブロック」の主な役割は何ですか? 低次元空間での情報を学習し、計算コストを削減するため チャネルの次元を削減し、重要な特徴を強調するため 残差接続を無効にするため 特徴マップを拡大して精度を向上させるため None 24. Word2VecのSkip-gramモデルにおいて、「単語ベクトルの正規化」を行う理由は何ですか? モデルの学習速度を向上させるため 単語の出現頻度を増加させるため モデルの出力サイズを削減するため 単語ベクトルの大きさを統一し、コサイン類似度の計算を容易にするため None 25. HREDモデルにおいて「ドメイン特化型対話システム」を作成する際に考慮すべき点はどれですか? モデルのパラメータ数を減らす 特定のドメインに特化したデータセットでモデルを訓練し、そのドメインに適した応答生成を行う モデルの学習速度を向上させるために、一般的なデータセットを使用する モデルの出力シーケンスをシャッフルする None 26. DenseNetで「スキップ接続」が無い場合に発生しうる問題は何ですか? 勾配消失問題が発生しやすくなり、学習が進まなくなる モデルのパラメータ数が大幅に減少する 特徴マップのチャネル数が増加する モデルの学習速度が著しく向上する None 27. Word2VecのSkip-gramモデルで「コサイン類似度」を使用する理由は何ですか? モデルの重みを最適化するため 単語ベクトルの次元数を削減するため 単語間のベクトル距離を測定し、類似度を数値化するため 単語の頻度を正規化するため None 28. Word2VecモデルのSkip-gramとCBOW(Continuous Bag of Words)の主な違いは何ですか? Skip-gramは文全体を入力とし、CBOWは単語のみを入力とする Skip-gramは文脈語から中心語を予測し、CBOWは中心語から文脈語を予測する Skip-gramは畳み込み層を使用し、CBOWは使用しない Skip-gramは単語間の関係を無視するが、CBOWは関係を考慮する None 29. Skip-gramモデルにおける「単語の頻度に基づくダウンサンプリング」が効果的である理由は何ですか? 高頻度の単語が学習の邪魔をしないようにし、低頻度の単語に焦点を当てるため 低頻度の単語を削除するため 文中の単語をシャッフルするため 単語の出現回数を正規化するため None 30. EfficientNetのMBConvブロックで「リニアボトルネック」を採用する理由は何ですか? 計算コストを削減しつつ、情報の損失を防ぐため パラメータ数を増加させるため 特徴マップのサイズを増加させるため 残差接続を無効にするため None 31. HREDモデルにアテンション機構を導入することで得られる利点は何ですか? モデルのパラメータ数を減らす モデルの訓練速度を向上させる 文脈内の重要な部分に注意を向け、情報を劣化させずに保持できる データの正規化が不要になる None 32. Word2VecのSkip-gramモデルにおける「学習率」を最適化する理由は何ですか? モデルの出力を正規化するため 過学習を防ぐため モデルが最適なパラメータ更新を行い、効率的に収束するため モデルの計算速度を増加させるため None 33. EfficientNetが、特にモバイル端末や組み込みシステムで優れている理由は次のうちどれですか? モデルの深さを無限に増やせるため 軽量かつ計算効率が高く、リソースが限られた環境でも高精度を実現できるため 大規模なデータセットが必要ないため 全結合層を使用していないため None 34. MobileNetの「αパラメータ」を減少させることによって予想される影響は何ですか? モデルの計算コストが増加し、精度が低下する モデルの計算コストが減少し、精度が向上する モデルの計算コストが減少し、精度が低下する パラメータ数が増加し、モデルが過学習する None 35. HREDモデルの「階層構造」の主な利点は何ですか? 学習データの量を減らせる 訓練速度を向上させる 長いシーケンスや対話の文脈を効果的に学習できる モデルの計算コストを削減する None 36. Skip-gramモデルで学習された単語ベクトルが「トランスファーラーニング」に適している理由は何ですか? 単語ベクトルが複数のタスクに共通して使用できるため 単語ベクトルが特定のドメインに最適化されているため 単語ベクトルが頻度に基づいて作成されるため 単語ベクトルが固定されたサイズを持つため None 37. DenseNetのアーキテクチャにおける「パラメータ効率の良さ」の主な理由は次のうちどれですか? 残差接続を用いているため 各層が他の層の出力を再利用し、新しいフィルタ数を最小限に抑えるため 活性化関数がReLUの代わりにSigmoidを使用しているため 全ての層で同じフィルタ数を使用しているため None 38. Word2VecのSkip-gramモデルにおける「softmax関数」の役割は何ですか? モデルの出力を正規化し、各文脈語に対する確率を計算するため モデルのパラメータを初期化するため モデルの損失関数を計算するため モデルの学習速度を向上させるため None 39. MobileNetの効率的な設計において、「次元削減」の目的は何ですか? 計算コストを削減しながら、特徴マップの表現力を維持するため モデルの学習速度を遅くするため 残差接続を使用するため 勾配消失を引き起こすため None 40. EfficientNetが従来のモデルよりも計算効率が高い理由は何ですか? 全ての畳み込み層でストライド2を使用しているため モデルの層数を削減しているため Compound Scalingにより、計算コストを抑えつつ精度を向上させているため 活性化関数を変更したため None 41. DenseNetの「密結合」構造において、層ごとに出力される特徴が前層の出力と統合されることによって得られる効果は何ですか? モデルのパラメータ数が増加する 層ごとに冗長な特徴を抽出し、精度が向上する 学習速度が遅くなる 特徴の再利用によって、効率的な学習が行われ、より高い性能が得られる None 42. MobileNetで「1x1の畳み込み(Pointwise Convolution)」が使用される目的は何ですか? 各チャネルの情報を統合し、出力チャネルを生成するため モデルのパラメータ数を増加させるため モデルの学習速度を遅くするため 特徴マップのサイズを拡大するため None 43. Skip-gramモデルの学習において「ネガティブサンプリング」の目的は何ですか? モデルの学習率を最適化する 計算コストを削減しながら、モデルの精度を維持するため 単語ベクトルの次元数を増やすため 文脈語の出現頻度を増やすため None 44. HREDモデルが「探索空間の爆発」に対処するために適用される技術は何ですか? ビームサーチ グリーディーサーチ ドロップアウト 学習率の減少 None 45. Skip-gramモデルにおける「負のサンプリング(Negative Sampling)」で、正例と負例の比率を調整する理由は何ですか? モデルの精度を向上させるため 正例が多すぎると過学習が発生するため 負例が多すぎるとモデルの学習が遅くなるため 正例と負例のバランスを取り、効率的な学習を行うため None 46. DenseNetにおいて「トランジションレイヤー」が適切に設計されていない場合、どのような問題が発生しますか? 特徴マップが過度に大きくなり、計算効率が悪化する モデルのパラメータ数が減少しすぎて精度が低下する 勾配消失が発生しやすくなる モデルが学習しなくなる None 47. Word2VecのSkip-gramモデルの目的は次のうちどれですか? 中心語に対してその文脈語を予測する 文全体の意味をエンコードする 文脈に基づいて文章を生成する 文中の単語をシャッフルする None 48. MobileNetの「Depthwise Separable Convolution」と従来の畳み込み層を比較した場合、パラメータ数の削減率はどの程度ですか? 約10% 約50% 約75% 約90% None 49. MobileNetV2で導入された「インバーテッド残差構造(Inverted Residuals)」の主な利点は何ですか? 残差接続を無効にする 低次元空間での学習を避け、計算効率を向上させる 活性化関数をReLUからSigmoidに変更する 特徴マップのサイズを増加させる None 50. HREDモデルの訓練でよく使用される損失関数は次のうちどれですか? 平均二乗誤差 ヒンジ損失 L2正則化 クロスエントロピー損失 None Time's up