AI実装検定S級~模擬試験②~ 2024年12月8日2024年12月8日 ailearn 1. EfficientNetの「Compound Scaling」を調整する際、幅を大きくスケーリングしすぎるとどのような問題が発生しますか? モデルの深さが減少し、学習が不安定になる 計算コストが減少しすぎ、精度が著しく低下する 特徴マップのチャネル数が減少しすぎて、表現力が低下する モデルの計算コストが大幅に増加し、効率が低下する None 2. Skip-gramモデルの学習において「ネガティブサンプリング」の目的は何ですか? モデルの学習率を最適化する 計算コストを削減しながら、モデルの精度を維持するため 単語ベクトルの次元数を増やすため 文脈語の出現頻度を増やすため None 3. HREDモデルにアテンション機構を導入することで得られる利点は何ですか? モデルのパラメータ数を減らす モデルの訓練速度を向上させる 文脈内の重要な部分に注意を向け、情報を劣化させずに保持できる データの正規化が不要になる None 4. HREDモデルにおいて「情報ボトルネック問題」が発生する可能性がある理由は何ですか? モデルが過去の対話を全て記憶するため モデルが同じ応答を繰り返し生成するため コンテキストエンコーダが全ての情報を1つのベクトルに圧縮するため、長い対話では情報が失われやすくなるため モデルの計算コストが高いため None 5. HREDモデルの「グローバル文脈」と「ローカル文脈」の役割を正しく説明したものはどれですか? グローバル文脈は各文の詳細を扱い、ローカル文脈は全体の流れを保持する グローバル文脈は長期的な文脈を保持し、ローカル文脈は現在の文や発話の情報を保持する グローバル文脈は現在の文の情報を保持し、ローカル文脈は長期的な文脈を扱う グローバル文脈は文の出力を生成し、ローカル文脈は入力シーケンスをエンコードする None 6. DenseNetの「トランジションレイヤー」において、プーリング操作が行われる理由は何ですか? 特徴マップの解像度を縮小し、計算コストを削減するため 特徴マップのチャネル数を増やすため モデルのパラメータ数を削減するため 勾配消失を防ぐため None 7. Word2VecのSkip-gramモデルで「文脈が不明な単語」を効果的に処理するために使用される技術は何ですか? 文脈を複数のサンプルに分割して、異なる文脈で単語を学習させる 単語のシャッフリング 単語ベクトルの次元数を増やす 文法的ルールを適用する None 8. Skip-gramモデルで、負のサンプリング(Negative Sampling)を使用する際に最も重要なハイパーパラメータは何ですか? バッチサイズ 学習率 ウィンドウサイズ サンプリングの負例の数 None 9. MobileNetで使用される「ReLU6」の活性化関数は、どのような利点がありますか? ネガティブな値を強調するため 活性化出力を大幅に増加させるため 計算精度をFP16などの低精度演算に適応させるため モデルのパラメータ数を削減するため None 10. HREDモデルはどのようなタスクに特に適していますか? 文書生成や対話システム 画像分類 機械翻訳 音声認識 None 11. Skip-gramモデルが大規模なデータセットで効果的に機能する理由は何ですか? モデルが全ての単語ペアを一度に処理するため 中心語と文脈語のペアが多く生成され、豊富な意味的関係を学習できるため モデルが単語の出現頻度に依存しないため モデルが文の構造を無視するため None 12. Skip-gramモデルにおける「単語の頻度に基づくダウンサンプリング」が効果的である理由は何ですか? 高頻度の単語が学習の邪魔をしないようにし、低頻度の単語に焦点を当てるため 低頻度の単語を削除するため 文中の単語をシャッフルするため 単語の出現回数を正規化するため None 13. MobileNetで「1x1の畳み込み(Pointwise Convolution)」が使用される目的は何ですか? 各チャネルの情報を統合し、出力チャネルを生成するため モデルのパラメータ数を増加させるため モデルの学習速度を遅くするため 特徴マップのサイズを拡大するため None 14. HREDモデルの生成した応答が一貫性を欠く場合、どのような改善策が考えられますか? モデルの出力を正規化する コンテキストエンコーダにアテンション機構を導入し、文脈の重要な部分に注意を向けさせる モデルのパラメータを増やす モデルの訓練データを減らす None 15. HREDモデルの「階層構造」の主な利点は何ですか? 学習データの量を減らせる 訓練速度を向上させる 長いシーケンスや対話の文脈を効果的に学習できる モデルの計算コストを削減する None 16. HREDモデルにおける「コンテキストエンコーダ」の役割は何ですか? 全体の文脈情報をエンコードし、各文の情報を統合する 各文の意味をエンコードする モデルの重みを最適化する モデルの学習率を調整する None 17. DenseNetが他の深層学習モデルに比べて「メモリ効率が高い」と言われる理由は何ですか? モデルのパラメータ数が少ないため トランジションレイヤーが全ての層に適用されているため 特徴マップのサイズを一定に保っているため 各層が特徴マップを再利用し、不要な計算を減らしているため None 18. HREDモデルが適用される領域で特に重要な「転移学習」の利点は何ですか? モデルの学習速度を遅くする モデルのパラメータ数を増やす 新しいドメインに少量のデータで適応できる モデルの損失関数を変更する None 19. EfficientNetが、特にモバイル端末や組み込みシステムで優れている理由は次のうちどれですか? モデルの深さを無限に増やせるため 軽量かつ計算効率が高く、リソースが限られた環境でも高精度を実現できるため 大規模なデータセットが必要ないため 全結合層を使用していないため None 20. Word2VecのSkip-gramモデルにおける「softmax関数」の役割は何ですか? モデルの出力を正規化し、各文脈語に対する確率を計算するため モデルのパラメータを初期化するため モデルの損失関数を計算するため モデルの学習速度を向上させるため None 21. MobileNetの「アーキテクチャ検索(NAS)」技術を使用することで得られる主な利点は何ですか? モデルのパラメータ数を削減する ストライドを最適化する モデルの出力次元数を固定する モデルの学習を自動化し、最適なアーキテクチャを見つけることができる None 22. MobileNetにおいて「Depthwise Separable Convolution」の主な利点は何ですか? ネットワークの層数を増やすため 計算量とパラメータ数を削減するため 特徴抽出能力を低下させるため モデルの学習速度を遅くするため None 23. MobileNetが「軽量」でありながら「高精度」を維持できる理由は次のうちどれですか? モデルの深さを増やしているため 分離可能な畳み込み(Depthwise Separable Convolution)や次元削減を効率的に使用しているため 全ての層でReLUを使用しているため 残差接続を多用しているため None 24. DenseNetの「密結合」構造が、他のモデルと比較してパラメータ効率を向上させる理由は何ですか? 各層が残差接続を使用しているため 活性化関数をReLUからLeaky ReLUに変更しているため 各層が新しいパラメータを必要とせず、既存の特徴を再利用するため 特徴マップの解像度を一定に保っているため None 25. Word2VecのSkip-gramモデルの目的は次のうちどれですか? 中心語に対してその文脈語を予測する 文全体の意味をエンコードする 文脈に基づいて文章を生成する 文中の単語をシャッフルする None 26. MobileNetの最大の特徴は次のうちどれですか? モデルのパラメータ数を増やして高精度を実現する 分離可能な畳み込み(Depthwise Separable Convolution)による効率的な計算 大規模な計算リソースを必要とする 全結合層を削除している None 27. Word2VecモデルのSkip-gramとCBOW(Continuous Bag of Words)の主な違いは何ですか? Skip-gramは文全体を入力とし、CBOWは単語のみを入力とする Skip-gramは文脈語から中心語を予測し、CBOWは中心語から文脈語を予測する Skip-gramは畳み込み層を使用し、CBOWは使用しない Skip-gramは単語間の関係を無視するが、CBOWは関係を考慮する None 28. HREDモデルにおいて「ドメイン特化型対話システム」を作成する際に考慮すべき点はどれですか? モデルのパラメータ数を減らす 特定のドメインに特化したデータセットでモデルを訓練し、そのドメインに適した応答生成を行う モデルの学習速度を向上させるために、一般的なデータセットを使用する モデルの出力シーケンスをシャッフルする None 29. DenseNetにおいて「トランジションレイヤー」が適切に設計されていない場合、どのような問題が発生しますか? 特徴マップが過度に大きくなり、計算効率が悪化する モデルのパラメータ数が減少しすぎて精度が低下する 勾配消失が発生しやすくなる モデルが学習しなくなる None 30. Skip-gramモデルにおける「負のサンプリング(Negative Sampling)」で、正例と負例の比率を調整する理由は何ですか? モデルの精度を向上させるため 正例が多すぎると過学習が発生するため 負例が多すぎるとモデルの学習が遅くなるため 正例と負例のバランスを取り、効率的な学習を行うため None 31. DenseNetの「密結合」構造において、層ごとに出力される特徴が前層の出力と統合されることによって得られる効果は何ですか? モデルのパラメータ数が増加する 層ごとに冗長な特徴を抽出し、精度が向上する 学習速度が遅くなる 特徴の再利用によって、効率的な学習が行われ、より高い性能が得られる None 32. HREDモデルが「探索空間の爆発」に対処するために適用される技術は何ですか? ビームサーチ グリーディーサーチ ドロップアウト 学習率の減少 None 33. EfficientNetにおける「Squeeze-and-Excitation(SE)」ブロックを適用することで期待できる効果は何ですか? パラメータ数が削減され、計算コストが減少する チャネルごとの重要度を学習し、精度が向上する 計算コストが大幅に増加する モデルのスケーリングが無効になる None 34. EfficientNetが従来のモデルよりも計算効率が高い理由は何ですか? 全ての畳み込み層でストライド2を使用しているため モデルの層数を削減しているため Compound Scalingにより、計算コストを抑えつつ精度を向上させているため 活性化関数を変更したため None 35. EfficientNetの「Compound Scaling」が従来のスケーリング手法と異なる点は何ですか? 幅、解像度、深さを同時にバランスよくスケールさせる 幅のみをスケールさせる モデルの解像度だけを増加させる 深さを固定し、解像度を大きくスケールさせる None 36. Word2VecのSkip-gramモデルで「コサイン類似度」を使用する理由は何ですか? モデルの重みを最適化するため 単語ベクトルの次元数を削減するため 単語間のベクトル距離を測定し、類似度を数値化するため 単語の頻度を正規化するため None 37. EfficientNetが「軽量」でありながら「高精度」を実現できる理由は何ですか? MBConvブロック、リニアボトルネック、SEブロックの効率的な組み合わせによるため 全結合層を使用していないため 活性化関数をReLUからSigmoidに変更したため モデルの深さを無限に増やせるため None 38. MobileNetの設計において、「ストライド2」のDepthwise Convolutionを使用する主な目的は何ですか? 計算量を増加させるため モデルのパラメータ数を増やすため 特徴マップのチャネル数を減らすため 特徴マップの空間解像度を縮小し、重要な特徴を強調するため None 39. HREDモデルが「対話システム」において持つ最大の利点は何ですか? 訓練時間を短縮できる 過去の対話の文脈を長期間にわたり保持し、文脈に基づいた応答を生成できる 生成する応答を短縮できる 各発話を独立して処理できる None 40. DenseNetの設計における「トランジションレイヤー(Transition Layer)」の役割は何ですか? 特徴マップのサイズを増やす 勾配消失を防ぐ 特徴マップのサイズを縮小し、次のブロックに送る モデルの計算コストを増加させる None 41. MobileNetV2が「リニアボトルネック」を採用する理由は何ですか? 非線形活性化関数の影響を抑え、情報の損失を最小限にするため モデルのパラメータ数を増加させるため 計算量を削減するため モデルの訓練速度を遅くするため None 42. DenseNetが非常に深いネットワークにおいても「勾配消失」を防げる主な理由は何ですか? 各層が前の全ての層と接続され、勾配が効果的に伝播するため 活性化関数が使用されていないため モデルが浅く設計されているため トランジションレイヤーが全ての層に適用されるため None 43. MobileNetの効率的な設計において、「次元削減」の目的は何ですか? 計算コストを削減しながら、特徴マップの表現力を維持するため モデルの学習速度を遅くするため 残差接続を使用するため 勾配消失を引き起こすため None 44. DenseNetで「スキップ接続」が無い場合に発生しうる問題は何ですか? 勾配消失問題が発生しやすくなり、学習が進まなくなる モデルのパラメータ数が大幅に減少する 特徴マップのチャネル数が増加する モデルの学習速度が著しく向上する None 45. Skip-gramモデルの訓練時に「バッチサイズ」を大きくすることの利点は何ですか? モデルの計算時間を減少させる モデルの訓練が安定し、ノイズが少なくなる モデルのパラメータ数が増える 学習率を自動的に最適化する None 46. DenseNetにおいて「バッチ正規化(Batch Normalization)」が使用される主な理由は何ですか? 各層の出力を正規化し、学習の安定性を向上させるため パラメータ数を減らすため モデルの解像度を上げるため 特徴マップのサイズを増やすため None 47. MobileNetV2で導入された「インバーテッド残差構造(Inverted Residuals)」の主な利点は何ですか? 残差接続を無効にする 低次元空間での学習を避け、計算効率を向上させる 活性化関数をReLUからSigmoidに変更する 特徴マップのサイズを増加させる None 48. Skip-gramモデルにおける「単語ベクトル」の次元数が増えると、何が改善される可能性がありますか? モデルの計算速度が向上する モデルの過学習が防止される 単語間の意味的な関係がより詳細に捉えられるようになる モデルの出力サイズが固定される None 49. Skip-gramモデルで単語ベクトルが生成される際、どのように単語の意味的類似性が表現されますか? 単語の出現頻度に基づいてベクトルが作成される 文法的な関係がベクトルの距離に影響を与える 意味が類似した単語同士は、ベクトル空間上で近い位置に配置される 単語のアルファベット順にベクトルが作成される None 50. HREDモデルの基本的な構造は次のうちどれですか? 単一のRNNエンコーダとデコーダ 階層的に複数のエンコーダとデコーダを持つモデル 畳み込みニューラルネットワーク(CNN)を使用したモデル 自己注意機構を使用したTransformerモデル None Time's up