AI実装検定S級~模擬試験~ 2024年11月3日 ailearn 1. Skip-gramモデルで学習された単語ベクトルが「トランスファーラーニング」に適している理由は何ですか? 単語ベクトルが複数のタスクに共通して使用できるため 単語ベクトルが特定のドメインに最適化されているため 単語ベクトルが頻度に基づいて作成されるため 単語ベクトルが固定されたサイズを持つため None 2. HREDモデルの「文エンコーダ」にLSTMを使用する利点は何ですか? モデルの訓練時間を短縮できる モデルのパラメータ数を減少させる LSTMは勾配消失問題が発生しやすいため LSTMは長期的な依存関係を保持しやすく、文中の単語間の関係をより正確に捉えることができる None 3. seq2seqモデルにおける「アテンション機構」の役割は何ですか? モデルのトレーニング時間を短縮するため モデルが全ての入力シーケンスを同時に処理するため デコーダがエンコーダの全ての出力に注意を向けて、適切な情報を重視するため モデルがデータをシャッフルするため None 4. seq2seqモデルにおいて、「ペナルティ付きビームサーチ」が適用される理由は何ですか? モデルの訓練時間を短縮するため モデルが無限ループに入るのを防ぐため 短いシーケンスばかりが選ばれるのを防ぎ、より適切な長さのシーケンスを生成するため モデルのパラメータ数を削減するため None 5. GoogLeNetにおいて「1x1畳み込み」の役割は何ですか? 特徴マップのサイズを縮小するため モデルの計算量を減少させるため 次元削減を行い、計算効率を向上させるため モデルのパラメータ数を増加させるため None 6. DenseNetで「成長率(Growth Rate)」が過度に高く設定されると、どのような問題が発生する可能性がありますか? モデルのパラメータ数が増加し、メモリ使用量が大幅に増える 計算コストが減少し、性能が低下する 成長率が高いほどモデルの性能が向上するため問題は発生しない モデルが浅くなり、学習が進まない None 7. MobileNetが主に使用されるアプリケーション分野はどれですか? モバイル端末や組み込みシステムなどの計算資源が限られた環境 高性能なサーバーでのバッチ処理 大規模なデータセットのトレーニング 分散コンピューティング環境 None 8. DenseNetで「スキップ接続」が無い場合に発生しうる問題は何ですか? 勾配消失問題が発生しやすくなり、学習が進まなくなる モデルのパラメータ数が大幅に減少する 特徴マップのチャネル数が増加する モデルの学習速度が著しく向上する None 9. Skip-gramモデルが大規模なデータセットで効果的に機能する理由は何ですか? モデルが全ての単語ペアを一度に処理するため 中心語と文脈語のペアが多く生成され、豊富な意味的関係を学習できるため モデルが単語の出現頻度に依存しないため モデルが文の構造を無視するため None 10. Word2VecのSkip-gramモデルの目的は次のうちどれですか? 中心語に対してその文脈語を予測する 文全体の意味をエンコードする 文脈に基づいて文章を生成する 文中の単語をシャッフルする None 11. GoogLeNetで「バッチ正規化」を適用することで期待される効果は何ですか? モデルの学習が安定し、収束速度が向上する モデルのパラメータ数が減少する 活性化関数が不要になる モデルの計算量が増加する None 12. HREDモデルにアテンション機構を導入することで得られる利点は何ですか? モデルのパラメータ数を減らす モデルの訓練速度を向上させる 文脈内の重要な部分に注意を向け、情報を劣化させずに保持できる データの正規化が不要になる None 13. VGGネットワークの設計において、特徴的な要素は何ですか? 大きなカーネルサイズを持つ畳み込み層 複数の小さい3x3のカーネルを積み重ねる設計 平均プーリングのみを使用する ReLU活性化関数を使用しない None 14. GoogLeNetのInceptionモジュールにおいて、「1x1の畳み込み層」を事前に適用しない場合、どういった問題が発生する可能性がありますか? モデルの性能が向上する 計算量が大幅に増加し、訓練に時間がかかる 特徴マップのサイズが増加しすぎて、過学習が発生する モデルのパラメータ数が減少する None 15. WideResNetの幅を増やすことによる「表現力」の向上が、どのようにモデルの性能に影響を与える可能性がありますか? 残差接続が無効になる 表現力が向上することで、より多様な特徴を学習しやすくなり、精度が向上する モデルの精度が低下する 勾配消失問題が発生する None 16. Transformerモデルにおいて、「マルチヘッドアテンション」が持つ効果は何ですか? 訓練データのサイズを削減する モデルの各層の出力を全て同時に計算する 複数の異なるアテンションを並行して学習し、文脈の多様な側面を捉える デコーダが全ての入力シーケンスをシャッフルする None 17. Transformerモデルにおいて、「位置的注意スコア」はどのように計算されますか? 出力とターゲットシーケンスの距離に基づいて計算される エンコーダとデコーダの出力を直接比較する モデルの重みから自動計算される クエリとキーの内積を計算し、それをソフトマックスで正規化する None 18. Word2VecのSkip-gramモデルが「類似語」を見つけるために利用される理由は何ですか? モデルが単語をクラスタリングできるため 意味的に類似した単語がベクトル空間上で近い位置に配置されるため 単語の出現頻度を基に類似性を測定するため モデルが全ての単語を同じように扱うため None 19. VGGネットワークの「小さな3x3カーネル」を使用することの利点は何ですか? より大きなカーネルサイズを使用した場合と同じ受容野を確保しつつ、パラメータ数を抑えるため モデルの計算量を削減するため 訓練データを削減するため モデルの過学習を防ぐため None 20. ResNetで使用される「バッチ正規化(Batch Normalization)」の主な役割は何ですか? 学習率を自動で最適化するため モデルの計算量を減らすため 各層の出力を正規化し、学習の安定性を向上させるため 残差接続の効果を無効にするため None 21. MobileNetの最大の特徴は次のうちどれですか? モデルのパラメータ数を増やして高精度を実現する 分離可能な畳み込み(Depthwise Separable Convolution)による効率的な計算 大規模な計算リソースを必要とする 全結合層を削除している None 22. VGG16において「16」という数字が示しているものは何ですか? 畳み込み層のカーネルサイズ ネットワーク内の畳み込み層と全結合層の合計数 ネットワークの深さ プーリング層の数 None 23. DenseNetの「トランジションレイヤー」において、プーリング操作が行われる理由は何ですか? 特徴マップの解像度を縮小し、計算コストを削減するため 特徴マップのチャネル数を増やすため モデルのパラメータ数を削減するため 勾配消失を防ぐため None 24. HREDモデルが適用される領域で特に重要な「転移学習」の利点は何ですか? モデルの学習速度を遅くする モデルのパラメータ数を増やす 新しいドメインに少量のデータで適応できる モデルの損失関数を変更する None 25. Word2VecモデルのSkip-gramとCBOW(Continuous Bag of Words)の主な違いは何ですか? Skip-gramは文全体を入力とし、CBOWは単語のみを入力とする Skip-gramは文脈語から中心語を予測し、CBOWは中心語から文脈語を予測する Skip-gramは畳み込み層を使用し、CBOWは使用しない Skip-gramは単語間の関係を無視するが、CBOWは関係を考慮する None 26. WideResNetが「深さ」を増やす代わりに「幅」を増やす選択をする理由は何ですか? 訓練データの量を減らすため 計算量を削減するため 勾配消失問題を軽減しつつ、より多様な特徴を学習するため モデルのパラメータ数を減らすため None 27. DenseNetの「密結合」構造が、他のモデルと比較してパラメータ効率を向上させる理由は何ですか? 各層が残差接続を使用しているため 活性化関数をReLUからLeaky ReLUに変更しているため 各層が新しいパラメータを必要とせず、既存の特徴を再利用するため 特徴マップの解像度を一定に保っているため None 28. GoogLeNetの出力層の設計に関して、正しい説明は次のうちどれですか? Softmax活性化関数を使用して、各クラスの確率を出力する ReLUを使用してクラス間の差異を明確にする Linear活性化関数を使用して連続値を出力する Tanh関数を使用して二値分類を行う None 29. Skip-gramモデルの訓練時に「バッチサイズ」を大きくすることの利点は何ですか? モデルの計算時間を減少させる モデルの訓練が安定し、ノイズが少なくなる モデルのパラメータ数が増える 学習率を自動的に最適化する None 30. ResNetで「勾配消失問題」を防ぐための他の手法として考えられるものは次のうちどれですか? 全結合層を削除する 残差接続を無効にする バッチ正規化を導入する パラメータをランダムに初期化する None 31. DenseNetにおける「トランジションレイヤー」の畳み込み操作は何を目的としていますか? パラメータ数を増やし、学習を促進するため 特徴マップの解像度を増加させるため 特徴マップの次元を減少させ、メモリ使用量を抑えるため モデルの幅を調整するため None 32. ResNet-101の主な特徴は次のうちどれですか? 残差ブロックの数が101個である 101層の全てが全結合層で構成されている 101個のカーネルサイズを持つ 残差接続を使用しない None 33. VGGネットワークで「転移学習」が効果的な理由は何ですか? モデルが浅いネットワーク構造を持つため 事前学習された特徴が多くの異なるタスクに対して汎用的であるため モデルのパラメータ数が少ないため モデルが固定された出力サイズを持つため None 34. Skip-gramモデルにおける「単語の頻度に基づくダウンサンプリング」が効果的である理由は何ですか? 高頻度の単語が学習の邪魔をしないようにし、低頻度の単語に焦点を当てるため 低頻度の単語を削除するため 文中の単語をシャッフルするため 単語の出現回数を正規化するため None 35. EfficientNetで「深さ」をスケーリングしすぎた場合に起こりうる問題は何ですか? 計算量が減少し、モデルの表現力が低下する 特徴マップが縮小しすぎて情報が失われる 計算コストが過剰に増加し、学習が難しくなる モデルが浅くなり、パフォーマンスが低下する None 36. seq2seqモデルで「デコーダ」が生成するのは何ですか? 入力シーケンスの次元数 出力シーケンス モデルの重み エンコーダの隠れ状態 None 37. EfficientNetのMBConvブロックで「リニアボトルネック」を採用する理由は何ですか? 計算コストを削減しつつ、情報の損失を防ぐため パラメータ数を増加させるため 特徴マップのサイズを増加させるため 残差接続を無効にするため None 38. Word2VecのSkip-gramモデルで「コサイン類似度」を使用する理由は何ですか? モデルの重みを最適化するため 単語ベクトルの次元数を削減するため 単語間のベクトル距離を測定し、類似度を数値化するため 単語の頻度を正規化するため None 39. ResNetの「ボトルネックブロック」が非常に深い層でも有効に機能する理由は何ですか? パラメータ数を減らすことで計算効率を向上させ、勾配消失を防ぐため 各層で出力を増加させるため 全結合層を使用しないため 活性化関数を削除するため None 40. GoogLeNetで「Global Average Pooling(GAP)」が使用される理由は何ですか? 全結合層を削減し、過学習を防ぐため 特徴マップのサイズを増やすため 活性化関数を最適化するため モデルの計算速度を低下させるため None 41. MobileNetV2が「リニアボトルネック」を採用する理由は何ですか? 非線形活性化関数の影響を抑え、情報の損失を最小限にするため モデルのパラメータ数を増加させるため 計算量を削減するため モデルの訓練速度を遅くするため None 42. GoogLeNetの「Inception-v3」と「Inception-v1」の主な違いは何ですか? Inception-v1は次元削減を行わないが、Inception-v3は行う Inception-v3は、より効率的な畳み込みや正則化技術を採用している Inception-v1はReLUを使用しないが、Inception-v3は使用する Inception-v3は全ての層にバッチ正規化を適用している None 43. VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか? ReLU活性化関数を使用する 重み減衰を適用する 全結合層を削除する バッチ正規化を導入する None 44. GoogLeNetの訓練において、学習率スケジューリングを使用する理由は何ですか? モデルの訓練時間を増やすため モデルのパラメータ数を増やすため 学習が進むにつれて学習率を徐々に減少させ、最適な収束を促すため 勾配消失問題を防ぐため None 45. EfficientNetが従来のモデルよりも計算効率が高い理由は何ですか? 全ての畳み込み層でストライド2を使用しているため モデルの層数を削減しているため Compound Scalingにより、計算コストを抑えつつ精度を向上させているため 活性化関数を変更したため None 46. EfficientNetにおいて「MBConvブロック」の主な役割は何ですか? 低次元空間での情報を学習し、計算コストを削減するため チャネルの次元を削減し、重要な特徴を強調するため 残差接続を無効にするため 特徴マップを拡大して精度を向上させるため None 47. VGGネットワークの全結合層を削減した場合、予想される効果は何ですか? モデルの精度が大幅に向上する パラメータ数が減少し、メモリ使用量が少なくなる モデルの計算速度が遅くなる モデルの訓練が困難になる None 48. seq2seqモデルの訓練において、「教師あり学習」としての訓練が行われる理由は何ですか? データの正解ラベルが不必要だから 正解シーケンスを基に、出力シーケンスが正確に生成されるようにするため モデルが自動的にラベルを生成するため データの欠損値を補完するため None 49. ResNetで「非常に深いネットワーク」を使用するとき、勾配消失問題を完全に解決できない場合、他にどのような問題が発生する可能性がありますか? モデルの精度が大幅に向上する ネットワークが適切に収束せず、精度が低下する 残差接続が無効になる モデルのパラメータ数が減少する None 50. WideResNetが標準のResNetに比べて「計算効率」を高めるために採用している設計方針は次のうちどれですか? 残差ブロックの数を減らし、幅を増やすことで学習速度を向上させる 全ての畳み込み層を1x1に置き換える モデルの深さをさらに増やす 全結合層を削除する None Time's up