AI実装検定S級~模擬試験②~ 2024年12月8日2024年12月8日 ailearn 1. EfficientNetの「Compound Scaling」の調整によって「解像度」を過度にスケーリングした場合、どのような問題が発生しますか? 解像度が高すぎて、学習が進まなくなる モデルの計算コストが急激に増加し、処理が遅くなる モデルの幅が狭くなり、パフォーマンスが低下する モデルが過学習する None 2. MobileNetの「Depthwise Separable Convolution」と従来の畳み込み層を比較した場合、パラメータ数の削減率はどの程度ですか? 約10% 約50% 約75% 約90% None 3. MobileNetV3で導入された「Squeeze-and-Excitation(SE)ブロック」の役割は何ですか? モデルのパラメータ数を増加させるため 特徴マップの空間的解像度を増加させるため 各チャネルの重要度を学習し、適応的に特徴マップの重み付けを行うため 活性化関数をReLUに変更するため None 4. Skip-gramモデルの「潜在意味解析(LSA)」との違いは何ですか? Skip-gramは単語間の意味的関係をベクトル空間上で捉えるが、LSAは頻度行列を使用する Skip-gramは文書全体を扱うが、LSAは単語を直接扱う Skip-gramは次元削減を行わないが、LSAは次元削減を行う Skip-gramは全ての単語を同じ次元に変換する None 5. EfficientNetにおいて「MBConvブロック」の設計が計算効率を高める理由は何ですか? 残差接続とリニアボトルネックを組み合わせて計算量を減少させるため 畳み込み層を完全に除去しているため モデルの幅を減少させているため 活性化関数を変更しているため None 6. HREDモデルにアテンション機構を導入することで得られる利点は何ですか? モデルのパラメータ数を減らす モデルの訓練速度を向上させる 文脈内の重要な部分に注意を向け、情報を劣化させずに保持できる データの正規化が不要になる None 7. HREDモデルが「探索空間の爆発」に対処するために適用される技術は何ですか? ビームサーチ グリーディーサーチ ドロップアウト 学習率の減少 None 8. HREDモデルの訓練時に「長短期記憶(LSTM)」と「ゲート付きリカレントユニット(GRU)」のどちらを使用するか選択する際のポイントは何ですか? モデルのパラメータ数がLSTMよりもGRUの方が少なく、計算が高速になるため LSTMの方がGRUよりも常に優れているため GRUは勾配消失問題を完全に解決できるため GRUは学習速度が遅いため None 9. MobileNetの「αパラメータ」を減少させることによって予想される影響は何ですか? モデルの計算コストが増加し、精度が低下する モデルの計算コストが減少し、精度が向上する モデルの計算コストが減少し、精度が低下する パラメータ数が増加し、モデルが過学習する None 10. DenseNetの「トランジションレイヤー」において、プーリング操作が行われる理由は何ですか? 特徴マップの解像度を縮小し、計算コストを削減するため 特徴マップのチャネル数を増やすため モデルのパラメータ数を削減するため 勾配消失を防ぐため None 11. Word2VecモデルのSkip-gramとCBOW(Continuous Bag of Words)の主な違いは何ですか? Skip-gramは文全体を入力とし、CBOWは単語のみを入力とする Skip-gramは文脈語から中心語を予測し、CBOWは中心語から文脈語を予測する Skip-gramは畳み込み層を使用し、CBOWは使用しない Skip-gramは単語間の関係を無視するが、CBOWは関係を考慮する None 12. DenseNetが他の深層学習モデルに比べて「メモリ効率が高い」と言われる理由は何ですか? モデルのパラメータ数が少ないため トランジションレイヤーが全ての層に適用されているため 特徴マップのサイズを一定に保っているため 各層が特徴マップを再利用し、不要な計算を減らしているため None 13. DenseNetが非常に深いネットワークにおいても「勾配消失」を防げる主な理由は何ですか? 各層が前の全ての層と接続され、勾配が効果的に伝播するため 活性化関数が使用されていないため モデルが浅く設計されているため トランジションレイヤーが全ての層に適用されるため None 14. HREDモデルにおける「コンテキストエンコーダ」の役割は何ですか? 全体の文脈情報をエンコードし、各文の情報を統合する 各文の意味をエンコードする モデルの重みを最適化する モデルの学習率を調整する None 15. EfficientNetのMBConvブロックで「リニアボトルネック」を採用する理由は何ですか? 計算コストを削減しつつ、情報の損失を防ぐため パラメータ数を増加させるため 特徴マップのサイズを増加させるため 残差接続を無効にするため None 16. MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか? ReLU6の計算効率をさらに向上させるため ネガティブな出力を増加させるため 特徴抽出のための出力範囲を広げるため 活性化関数の非線形性を減らすため None 17. EfficientNetにおいて「Global Average Pooling(GAP)」が使用される理由は何ですか? パラメータ数を減らし、過学習を防ぐため 特徴マップを拡大して精度を向上させるため モデルの幅をスケーリングするため 活性化関数を無効にするため None 18. MobileNetが主に使用されるアプリケーション分野はどれですか? モバイル端末や組み込みシステムなどの計算資源が限られた環境 高性能なサーバーでのバッチ処理 大規模なデータセットのトレーニング 分散コンピューティング環境 None 19. DenseNetのアーキテクチャにおける「パラメータ効率の良さ」の主な理由は次のうちどれですか? 残差接続を用いているため 各層が他の層の出力を再利用し、新しいフィルタ数を最小限に抑えるため 活性化関数がReLUの代わりにSigmoidを使用しているため 全ての層で同じフィルタ数を使用しているため None 20. Skip-gramモデルの学習において「ネガティブサンプリング」の目的は何ですか? モデルの学習率を最適化する 計算コストを削減しながら、モデルの精度を維持するため 単語ベクトルの次元数を増やすため 文脈語の出現頻度を増やすため None 21. DenseNetの「密結合」構造において、層ごとに出力される特徴が前層の出力と統合されることによって得られる効果は何ですか? モデルのパラメータ数が増加する 層ごとに冗長な特徴を抽出し、精度が向上する 学習速度が遅くなる 特徴の再利用によって、効率的な学習が行われ、より高い性能が得られる None 22. EfficientNetが「軽量」でありながら「高精度」を実現できる理由は何ですか? MBConvブロック、リニアボトルネック、SEブロックの効率的な組み合わせによるため 全結合層を使用していないため 活性化関数をReLUからSigmoidに変更したため モデルの深さを無限に増やせるため None 23. HREDモデルにおいて「デコーダ」の役割は何ですか? コンテキストエンコーダの出力に基づいて、次の文や発話を生成する 各単語をエンコードする モデルの損失関数を計算する モデルの学習率を調整する None 24. HREDモデルの「グローバル文脈」と「ローカル文脈」の役割を正しく説明したものはどれですか? グローバル文脈は各文の詳細を扱い、ローカル文脈は全体の流れを保持する グローバル文脈は長期的な文脈を保持し、ローカル文脈は現在の文や発話の情報を保持する グローバル文脈は現在の文の情報を保持し、ローカル文脈は長期的な文脈を扱う グローバル文脈は文の出力を生成し、ローカル文脈は入力シーケンスをエンコードする None 25. DenseNetにおける「密結合」の利点は次のうちどれですか? モデルのパラメータ数を削減する 各層が他の層からの情報を再利用し、効率的な学習が可能となる モデルの訓練時間を短縮する 全ての層が独立して動作する None 26. EfficientNetの「Compound Scaling」が従来のスケーリング手法と異なる点は何ですか? 幅、解像度、深さを同時にバランスよくスケールさせる 幅のみをスケールさせる モデルの解像度だけを増加させる 深さを固定し、解像度を大きくスケールさせる None 27. EfficientNetにおける「Squeeze-and-Excitation(SE)」ブロックを適用することで期待できる効果は何ですか? パラメータ数が削減され、計算コストが減少する チャネルごとの重要度を学習し、精度が向上する 計算コストが大幅に増加する モデルのスケーリングが無効になる None 28. MobileNetの設計において、「ストライド2」のDepthwise Convolutionを使用する主な目的は何ですか? 計算量を増加させるため モデルのパラメータ数を増やすため 特徴マップのチャネル数を減らすため 特徴マップの空間解像度を縮小し、重要な特徴を強調するため None 29. DenseNetにおいて「トランジションレイヤー」が適切に設計されていない場合、どのような問題が発生しますか? 特徴マップが過度に大きくなり、計算効率が悪化する モデルのパラメータ数が減少しすぎて精度が低下する 勾配消失が発生しやすくなる モデルが学習しなくなる None 30. MobileNetにおいて、分類タスクで「Global Average Pooling(GAP)」を使用する主な目的は何ですか? モデルのパラメータ数を増やすため 特徴マップを平均化し、全結合層の代わりに出力を生成するため 活性化関数を変更するため 特徴マップのチャネル数を削減するため None 31. EfficientNetの主な特徴は何ですか? 深さのみをスケールさせたモデル モデルの幅、解像度、深さをバランスよくスケールさせる 幅を広げることでパフォーマンスを向上させたモデル 全結合層を多用した設計 None 32. EfficientNetが従来のモデルよりも計算効率が高い理由は何ですか? 全ての畳み込み層でストライド2を使用しているため モデルの層数を削減しているため Compound Scalingにより、計算コストを抑えつつ精度を向上させているため 活性化関数を変更したため None 33. EfficientNetで使用される「バッチ正規化(Batch Normalization)」の役割は何ですか? モデルのパラメータ数を削減する 全ての層で活性化関数を無効にする 各層の出力を正規化し、学習の安定性を向上させる モデルの幅を調整する None 34. Word2VecのSkip-gramモデルで「コサイン類似度」を使用する理由は何ですか? モデルの重みを最適化するため 単語ベクトルの次元数を削減するため 単語間のベクトル距離を測定し、類似度を数値化するため 単語の頻度を正規化するため None 35. HREDモデルの生成した応答が一貫性を欠く場合、どのような改善策が考えられますか? モデルの出力を正規化する コンテキストエンコーダにアテンション機構を導入し、文脈の重要な部分に注意を向けさせる モデルのパラメータを増やす モデルの訓練データを減らす None 36. HREDモデルの「文エンコーダ」の役割は何ですか? 各文の単語をエンコードし、文の全体的な意味を表現する モデルの出力シーケンスを生成する モデルのパラメータを調整する 文全体の文脈を無視する None 37. MobileNetV2で導入された「インバーテッド残差構造(Inverted Residuals)」の主な利点は何ですか? 残差接続を無効にする 低次元空間での学習を避け、計算効率を向上させる 活性化関数をReLUからSigmoidに変更する 特徴マップのサイズを増加させる None 38. HREDモデルが通常のseq2seqモデルと異なる点は何ですか? seq2seqモデルは並列処理が可能だが、HREDはできない HREDは発話や文の階層構造を扱うが、seq2seqモデルは単一のシーケンスのみを扱う HREDはTransformerに基づくモデルである HREDは畳み込み層を持つ None 39. Word2VecのSkip-gramモデルにおいて、「単語ベクトルの正規化」を行う理由は何ですか? モデルの学習速度を向上させるため 単語の出現頻度を増加させるため モデルの出力サイズを削減するため 単語ベクトルの大きさを統一し、コサイン類似度の計算を容易にするため None 40. MobileNetの効率的な設計において、「次元削減」の目的は何ですか? 計算コストを削減しながら、特徴マップの表現力を維持するため モデルの学習速度を遅くするため 残差接続を使用するため 勾配消失を引き起こすため None 41. Word2VecのSkip-gramモデルにおける「ウィンドウサイズ」が大きすぎると、どのような問題が発生する可能性がありますか? 単語の類似性が低下する ノイズが増加し、関連性の低い単語が学習される可能性がある モデルのパラメータが減少する 単語の出現回数が増加する None 42. DenseNetが「勾配消失問題」を効果的に防ぐ理由は何ですか? 各層が残差接続を使用しているため モデルの深さが浅いため 全ての層が前の層から直接情報を受け取る密結合構造を持つため 活性化関数を使用していないため None 43. MobileNetV2の「インバーテッド残差構造」が従来の残差構造と異なる点は何ですか? 残差接続を削除している 全ての層でReLUを使用していない 非線形活性化を使用していない 高次元空間での特徴抽出後に次元削減を行う None 44. Word2VecのSkip-gramモデルにおいて「ウィンドウサイズ」の役割は何ですか? モデルの出力サイズを決定する 中心語から何語までを文脈語として考慮するかを決める モデルの学習率を決定する 単語ベクトルの次元数を決定する None 45. MobileNetで「1x1の畳み込み(Pointwise Convolution)」が使用される目的は何ですか? 各チャネルの情報を統合し、出力チャネルを生成するため モデルのパラメータ数を増加させるため モデルの学習速度を遅くするため 特徴マップのサイズを拡大するため None 46. HREDモデルはどのようなタスクに特に適していますか? 文書生成や対話システム 画像分類 機械翻訳 音声認識 None 47. MobileNetV2がMobileNetV1に比べてパフォーマンスが向上した主な理由は何ですか? Depthwise Separable Convolutionを使用しなくなったため インバーテッド残差構造とリニアボトルネックを導入したため モデルの幅を狭くしたため 1x1の畳み込みを削除したため None 48. MobileNetの最大の特徴は次のうちどれですか? モデルのパラメータ数を増やして高精度を実現する 分離可能な畳み込み(Depthwise Separable Convolution)による効率的な計算 大規模な計算リソースを必要とする 全結合層を削除している None 49. DenseNetの「密結合」構造が、他のモデルと比較してパラメータ効率を向上させる理由は何ですか? 各層が残差接続を使用しているため 活性化関数をReLUからLeaky ReLUに変更しているため 各層が新しいパラメータを必要とせず、既存の特徴を再利用するため 特徴マップの解像度を一定に保っているため None 50. HREDモデルの基本的な構造は次のうちどれですか? 単一のRNNエンコーダとデコーダ 階層的に複数のエンコーダとデコーダを持つモデル 畳み込みニューラルネットワーク(CNN)を使用したモデル 自己注意機構を使用したTransformerモデル None Time's up