AI実装検定S級~模擬試験②~ 2024年12月8日2024年12月8日 ailearn 1. MobileNetV2がMobileNetV1に比べてパフォーマンスが向上した主な理由は何ですか? Depthwise Separable Convolutionを使用しなくなったため インバーテッド残差構造とリニアボトルネックを導入したため モデルの幅を狭くしたため 1x1の畳み込みを削除したため None 2. DenseNetの「密結合」構造において、層ごとに出力される特徴が前層の出力と統合されることによって得られる効果は何ですか? モデルのパラメータ数が増加する 層ごとに冗長な特徴を抽出し、精度が向上する 学習速度が遅くなる 特徴の再利用によって、効率的な学習が行われ、より高い性能が得られる None 3. EfficientNetのスケーリング戦略である「Compound Scaling」の目的は何ですか? 計算コストを無視して最大限の精度を追求するため 幅、深さ、解像度をバランスよく拡大し、効率的に精度を向上させるため モデルのパラメータ数を削減するため モデルの訓練時間を短縮するため None 4. HREDモデルにアテンション機構を導入することで得られる利点は何ですか? モデルのパラメータ数を減らす モデルの訓練速度を向上させる 文脈内の重要な部分に注意を向け、情報を劣化させずに保持できる データの正規化が不要になる None 5. HREDモデルにおいて「対話型システム」でよく使用される理由は何ですか? 生成された文を短縮できる 音声認識に特化しているため ユーザーの過去の発話や文脈を保持し、より自然な応答を生成できるため モデルのパラメータ数が少ないため None 6. EfficientNetにおいて「Global Average Pooling(GAP)」が使用される理由は何ですか? パラメータ数を減らし、過学習を防ぐため 特徴マップを拡大して精度を向上させるため モデルの幅をスケーリングするため 活性化関数を無効にするため None 7. DenseNetの設計における「トランジションレイヤー(Transition Layer)」の役割は何ですか? 特徴マップのサイズを増やす 勾配消失を防ぐ 特徴マップのサイズを縮小し、次のブロックに送る モデルの計算コストを増加させる None 8. EfficientNetで「深さ」をスケーリングしすぎた場合に起こりうる問題は何ですか? 計算量が減少し、モデルの表現力が低下する 特徴マップが縮小しすぎて情報が失われる 計算コストが過剰に増加し、学習が難しくなる モデルが浅くなり、パフォーマンスが低下する None 9. Skip-gramモデルにおける「負のサンプリング(Negative Sampling)」で、正例と負例の比率を調整する理由は何ですか? モデルの精度を向上させるため 正例が多すぎると過学習が発生するため 負例が多すぎるとモデルの学習が遅くなるため 正例と負例のバランスを取り、効率的な学習を行うため None 10. Skip-gramモデルの訓練時に「バッチサイズ」を大きくすることの利点は何ですか? モデルの計算時間を減少させる モデルの訓練が安定し、ノイズが少なくなる モデルのパラメータ数が増える 学習率を自動的に最適化する None 11. Word2VecのSkip-gramモデルが「類似語」を見つけるために利用される理由は何ですか? モデルが単語をクラスタリングできるため 意味的に類似した単語がベクトル空間上で近い位置に配置されるため 単語の出現頻度を基に類似性を測定するため モデルが全ての単語を同じように扱うため None 12. HREDモデルの「文エンコーダ」の役割は何ですか? 各文の単語をエンコードし、文の全体的な意味を表現する モデルの出力シーケンスを生成する モデルのパラメータを調整する 文全体の文脈を無視する None 13. DenseNetで「成長率(Growth Rate)」が過度に高く設定されると、どのような問題が発生する可能性がありますか? モデルのパラメータ数が増加し、メモリ使用量が大幅に増える 計算コストが減少し、性能が低下する 成長率が高いほどモデルの性能が向上するため問題は発生しない モデルが浅くなり、学習が進まない None 14. DenseNetにおける「密結合」の利点は次のうちどれですか? モデルのパラメータ数を削減する 各層が他の層からの情報を再利用し、効率的な学習が可能となる モデルの訓練時間を短縮する 全ての層が独立して動作する None 15. EfficientNetの主な特徴は何ですか? 深さのみをスケールさせたモデル モデルの幅、解像度、深さをバランスよくスケールさせる 幅を広げることでパフォーマンスを向上させたモデル 全結合層を多用した設計 None 16. Skip-gramモデルで単語ベクトルが生成される際、どのように単語の意味的類似性が表現されますか? 単語の出現頻度に基づいてベクトルが作成される 文法的な関係がベクトルの距離に影響を与える 意味が類似した単語同士は、ベクトル空間上で近い位置に配置される 単語のアルファベット順にベクトルが作成される None 17. HREDモデルが「探索空間の爆発」に対処するために適用される技術は何ですか? ビームサーチ グリーディーサーチ ドロップアウト 学習率の減少 None 18. MobileNetの「αパラメータ」を減少させることによって予想される影響は何ですか? モデルの計算コストが増加し、精度が低下する モデルの計算コストが減少し、精度が向上する モデルの計算コストが減少し、精度が低下する パラメータ数が増加し、モデルが過学習する None 19. Word2VecのSkip-gramモデルにおいて、「単語ベクトルの正規化」を行う理由は何ですか? モデルの学習速度を向上させるため 単語の出現頻度を増加させるため モデルの出力サイズを削減するため 単語ベクトルの大きさを統一し、コサイン類似度の計算を容易にするため None 20. Skip-gramモデルの「潜在意味解析(LSA)」との違いは何ですか? Skip-gramは単語間の意味的関係をベクトル空間上で捉えるが、LSAは頻度行列を使用する Skip-gramは文書全体を扱うが、LSAは単語を直接扱う Skip-gramは次元削減を行わないが、LSAは次元削減を行う Skip-gramは全ての単語を同じ次元に変換する None 21. DenseNetの「成長率(Growth Rate)」が小さすぎる場合、どのような影響がありますか? モデルのパラメータ数が増加しすぎる モデルの表現力が低下し、精度が低くなる可能性がある 特徴マップのサイズが増加しすぎる 勾配消失問題が発生する None 22. HREDモデルはどのようなタスクに特に適していますか? 文書生成や対話システム 画像分類 機械翻訳 音声認識 None 23. HREDモデルが通常のseq2seqモデルと異なる点は何ですか? seq2seqモデルは並列処理が可能だが、HREDはできない HREDは発話や文の階層構造を扱うが、seq2seqモデルは単一のシーケンスのみを扱う HREDはTransformerに基づくモデルである HREDは畳み込み層を持つ None 24. MobileNetの設計において、「ハイパーパラメータα(アルファ)」は何を調整するために使用されますか? モデルの深さを調整する 活性化関数の種類を決定する モデルの幅(チャネル数)を調整し、計算コストと精度をバランスさせる モデルの学習率を最適化する None 25. DenseNetにおいて「バッチ正規化(Batch Normalization)」が使用される主な理由は何ですか? 各層の出力を正規化し、学習の安定性を向上させるため パラメータ数を減らすため モデルの解像度を上げるため 特徴マップのサイズを増やすため None 26. Word2VecのSkip-gramモデルで「文脈が不明な単語」を効果的に処理するために使用される技術は何ですか? 文脈を複数のサンプルに分割して、異なる文脈で単語を学習させる 単語のシャッフリング 単語ベクトルの次元数を増やす 文法的ルールを適用する None 27. Word2VecモデルのSkip-gramとCBOW(Continuous Bag of Words)の主な違いは何ですか? Skip-gramは文全体を入力とし、CBOWは単語のみを入力とする Skip-gramは文脈語から中心語を予測し、CBOWは中心語から文脈語を予測する Skip-gramは畳み込み層を使用し、CBOWは使用しない Skip-gramは単語間の関係を無視するが、CBOWは関係を考慮する None 28. Word2VecのSkip-gramモデルにおいて「ウィンドウサイズ」の役割は何ですか? モデルの出力サイズを決定する 中心語から何語までを文脈語として考慮するかを決める モデルの学習率を決定する 単語ベクトルの次元数を決定する None 29. EfficientNetの「Compound Scaling」が従来のスケーリング手法と異なる点は何ですか? 幅、解像度、深さを同時にバランスよくスケールさせる 幅のみをスケールさせる モデルの解像度だけを増加させる 深さを固定し、解像度を大きくスケールさせる None 30. HREDのような階層型モデルが一般的なRNNに比べて長期依存関係を捉えるのに優れている理由は何ですか? モデルのパラメータ数が少ないため 訓練時間が短いため 全てのシーケンスが並列処理されるため 階層構造によって文や発話単位の依存関係を保持しやすいため None 31. HREDモデルが「対話システム」において持つ最大の利点は何ですか? 訓練時間を短縮できる 過去の対話の文脈を長期間にわたり保持し、文脈に基づいた応答を生成できる 生成する応答を短縮できる 各発話を独立して処理できる None 32. MobileNetの「アーキテクチャ検索(NAS)」技術を使用することで得られる主な利点は何ですか? モデルのパラメータ数を削減する ストライドを最適化する モデルの出力次元数を固定する モデルの学習を自動化し、最適なアーキテクチャを見つけることができる None 33. HREDモデルの生成した応答が一貫性を欠く場合、どのような改善策が考えられますか? モデルの出力を正規化する コンテキストエンコーダにアテンション機構を導入し、文脈の重要な部分に注意を向けさせる モデルのパラメータを増やす モデルの訓練データを減らす None 34. EfficientNetにおいて「MBConvブロック」の設計が計算効率を高める理由は何ですか? 残差接続とリニアボトルネックを組み合わせて計算量を減少させるため 畳み込み層を完全に除去しているため モデルの幅を減少させているため 活性化関数を変更しているため None 35. EfficientNetの「Compound Scaling」の調整によって「解像度」を過度にスケーリングした場合、どのような問題が発生しますか? 解像度が高すぎて、学習が進まなくなる モデルの計算コストが急激に増加し、処理が遅くなる モデルの幅が狭くなり、パフォーマンスが低下する モデルが過学習する None 36. EfficientNetの「Compound Scaling」を調整する際、幅を大きくスケーリングしすぎるとどのような問題が発生しますか? モデルの深さが減少し、学習が不安定になる 計算コストが減少しすぎ、精度が著しく低下する 特徴マップのチャネル数が減少しすぎて、表現力が低下する モデルの計算コストが大幅に増加し、効率が低下する None 37. HREDモデルの訓練でよく使用される損失関数は次のうちどれですか? 平均二乗誤差 ヒンジ損失 L2正則化 クロスエントロピー損失 None 38. EfficientNetにおいて「MBConvブロック」の主な役割は何ですか? 低次元空間での情報を学習し、計算コストを削減するため チャネルの次元を削減し、重要な特徴を強調するため 残差接続を無効にするため 特徴マップを拡大して精度を向上させるため None 39. Word2VecのSkip-gramモデルにおける「学習率」を最適化する理由は何ですか? モデルの出力を正規化するため 過学習を防ぐため モデルが最適なパラメータ更新を行い、効率的に収束するため モデルの計算速度を増加させるため None 40. HREDモデルにおいて「情報ボトルネック問題」が発生する可能性がある理由は何ですか? モデルが過去の対話を全て記憶するため モデルが同じ応答を繰り返し生成するため コンテキストエンコーダが全ての情報を1つのベクトルに圧縮するため、長い対話では情報が失われやすくなるため モデルの計算コストが高いため None 41. HREDモデルにおいて「ドメイン特化型対話システム」を作成する際に考慮すべき点はどれですか? モデルのパラメータ数を減らす 特定のドメインに特化したデータセットでモデルを訓練し、そのドメインに適した応答生成を行う モデルの学習速度を向上させるために、一般的なデータセットを使用する モデルの出力シーケンスをシャッフルする None 42. Word2VecのSkip-gramモデルにおける「softmax関数」の役割は何ですか? モデルの出力を正規化し、各文脈語に対する確率を計算するため モデルのパラメータを初期化するため モデルの損失関数を計算するため モデルの学習速度を向上させるため None 43. HREDモデルの「階層構造」の主な利点は何ですか? 学習データの量を減らせる 訓練速度を向上させる 長いシーケンスや対話の文脈を効果的に学習できる モデルの計算コストを削減する None 44. EfficientNetが従来のモデルよりも計算効率が高い理由は何ですか? 全ての畳み込み層でストライド2を使用しているため モデルの層数を削減しているため Compound Scalingにより、計算コストを抑えつつ精度を向上させているため 活性化関数を変更したため None 45. EfficientNetで使用される「バッチ正規化(Batch Normalization)」の役割は何ですか? モデルのパラメータ数を削減する 全ての層で活性化関数を無効にする 各層の出力を正規化し、学習の安定性を向上させる モデルの幅を調整する None 46. EfficientNetのMBConvブロックで「リニアボトルネック」を採用する理由は何ですか? 計算コストを削減しつつ、情報の損失を防ぐため パラメータ数を増加させるため 特徴マップのサイズを増加させるため 残差接続を無効にするため None 47. MobileNetV2の「インバーテッド残差構造」が従来の残差構造と異なる点は何ですか? 残差接続を削除している 全ての層でReLUを使用していない 非線形活性化を使用していない 高次元空間での特徴抽出後に次元削減を行う None 48. DenseNetにおける「成長率(Growth Rate)」は何を示していますか? 各層で新たに追加されるフィルタ数 ネットワーク全体の層数 モデルの学習速度 畳み込み層のカーネルサイズ None 49. MobileNetV3で導入された「Squeeze-and-Excitation(SE)ブロック」の役割は何ですか? モデルのパラメータ数を増加させるため 特徴マップの空間的解像度を増加させるため 各チャネルの重要度を学習し、適応的に特徴マップの重み付けを行うため 活性化関数をReLUに変更するため None 50. EfficientNet-B7がEfficientNet-B0に比べて優れている点は何ですか? モデルの幅、深さ、解像度が大きくスケーリングされ、精度が高い モデルが軽量で、計算リソースを節約できる 全結合層を使用していないため バッチ正規化が全く使用されていないため None Time's up