AI実装検定S級~模擬試験②~ 2024年12月8日2024年12月8日 ailearn 1. HREDモデルにおける「コンテキストエンコーダ」の役割は何ですか? 全体の文脈情報をエンコードし、各文の情報を統合する 各文の意味をエンコードする モデルの重みを最適化する モデルの学習率を調整する None 2. HREDモデルの生成した応答が一貫性を欠く場合、どのような改善策が考えられますか? モデルの出力を正規化する コンテキストエンコーダにアテンション機構を導入し、文脈の重要な部分に注意を向けさせる モデルのパラメータを増やす モデルの訓練データを減らす None 3. DenseNetの設計における「トランジションレイヤー(Transition Layer)」の役割は何ですか? 特徴マップのサイズを増やす 勾配消失を防ぐ 特徴マップのサイズを縮小し、次のブロックに送る モデルの計算コストを増加させる None 4. HREDモデルにおいて「ドメイン特化型対話システム」を作成する際に考慮すべき点はどれですか? モデルのパラメータ数を減らす 特定のドメインに特化したデータセットでモデルを訓練し、そのドメインに適した応答生成を行う モデルの学習速度を向上させるために、一般的なデータセットを使用する モデルの出力シーケンスをシャッフルする None 5. MobileNetV3で導入された「ハードスワッシュ」とReLU6を比較した場合、どのような性能向上が期待されますか? ハードスワッシュは、ReLU6よりも計算効率が高く、表現力が向上する ハードスワッシュは、ReLU6よりも計算コストが高いが精度が向上する ハードスワッシュは、ReLU6と同様のパフォーマンスを持つ ReLU6は、ハードスワッシュよりも効率が良い None 6. DenseNetで「成長率(Growth Rate)」が過度に高く設定されると、どのような問題が発生する可能性がありますか? モデルのパラメータ数が増加し、メモリ使用量が大幅に増える 計算コストが減少し、性能が低下する 成長率が高いほどモデルの性能が向上するため問題は発生しない モデルが浅くなり、学習が進まない None 7. EfficientNetにおける「Squeeze-and-Excitation(SE)」ブロックを適用することで期待できる効果は何ですか? パラメータ数が削減され、計算コストが減少する チャネルごとの重要度を学習し、精度が向上する 計算コストが大幅に増加する モデルのスケーリングが無効になる None 8. EfficientNetで使用される「バッチ正規化(Batch Normalization)」の役割は何ですか? モデルのパラメータ数を削減する 全ての層で活性化関数を無効にする 各層の出力を正規化し、学習の安定性を向上させる モデルの幅を調整する None 9. MobileNetで「1x1の畳み込み(Pointwise Convolution)」が使用される目的は何ですか? 各チャネルの情報を統合し、出力チャネルを生成するため モデルのパラメータ数を増加させるため モデルの学習速度を遅くするため 特徴マップのサイズを拡大するため None 10. Word2VecのSkip-gramモデルの目的は次のうちどれですか? 中心語に対してその文脈語を予測する 文全体の意味をエンコードする 文脈に基づいて文章を生成する 文中の単語をシャッフルする None 11. EfficientNetの「スケーリング係数φ(フィー)」が調整するのは次のうちどれですか? モデルの学習率 全結合層の数 活性化関数の種類 モデルの深さ、幅、解像度のバランス None 12. EfficientNetにおいて「MBConvブロック」の設計が計算効率を高める理由は何ですか? 残差接続とリニアボトルネックを組み合わせて計算量を減少させるため 畳み込み層を完全に除去しているため モデルの幅を減少させているため 活性化関数を変更しているため None 13. Word2VecのSkip-gramモデルにおける「学習率」を最適化する理由は何ですか? モデルの出力を正規化するため 過学習を防ぐため モデルが最適なパラメータ更新を行い、効率的に収束するため モデルの計算速度を増加させるため None 14. MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか? ReLU6の計算効率をさらに向上させるため ネガティブな出力を増加させるため 特徴抽出のための出力範囲を広げるため 活性化関数の非線形性を減らすため None 15. EfficientNetで「深さ」をスケーリングしすぎた場合に起こりうる問題は何ですか? 計算量が減少し、モデルの表現力が低下する 特徴マップが縮小しすぎて情報が失われる 計算コストが過剰に増加し、学習が難しくなる モデルが浅くなり、パフォーマンスが低下する None 16. EfficientNetの「Compound Scaling」を調整する際、幅を大きくスケーリングしすぎるとどのような問題が発生しますか? モデルの深さが減少し、学習が不安定になる 計算コストが減少しすぎ、精度が著しく低下する 特徴マップのチャネル数が減少しすぎて、表現力が低下する モデルの計算コストが大幅に増加し、効率が低下する None 17. Word2VecのSkip-gramモデルが「類似語」を見つけるために利用される理由は何ですか? モデルが単語をクラスタリングできるため 意味的に類似した単語がベクトル空間上で近い位置に配置されるため 単語の出現頻度を基に類似性を測定するため モデルが全ての単語を同じように扱うため None 18. DenseNetが「勾配消失問題」を効果的に防ぐ理由は何ですか? 各層が残差接続を使用しているため モデルの深さが浅いため 全ての層が前の層から直接情報を受け取る密結合構造を持つため 活性化関数を使用していないため None 19. Word2VecのSkip-gramモデルで「コサイン類似度」を使用する理由は何ですか? モデルの重みを最適化するため 単語ベクトルの次元数を削減するため 単語間のベクトル距離を測定し、類似度を数値化するため 単語の頻度を正規化するため None 20. HREDモデルの「文エンコーダ」にLSTMを使用する利点は何ですか? モデルの訓練時間を短縮できる モデルのパラメータ数を減少させる LSTMは勾配消失問題が発生しやすいため LSTMは長期的な依存関係を保持しやすく、文中の単語間の関係をより正確に捉えることができる None 21. DenseNetの「密結合」構造が、他のモデルと比較してパラメータ効率を向上させる理由は何ですか? 各層が残差接続を使用しているため 活性化関数をReLUからLeaky ReLUに変更しているため 各層が新しいパラメータを必要とせず、既存の特徴を再利用するため 特徴マップの解像度を一定に保っているため None 22. MobileNetにおいて、分類タスクで「Global Average Pooling(GAP)」を使用する主な目的は何ですか? モデルのパラメータ数を増やすため 特徴マップを平均化し、全結合層の代わりに出力を生成するため 活性化関数を変更するため 特徴マップのチャネル数を削減するため None 23. HREDモデルの「階層構造」の主な利点は何ですか? 学習データの量を減らせる 訓練速度を向上させる 長いシーケンスや対話の文脈を効果的に学習できる モデルの計算コストを削減する None 24. DenseNetの「密結合」構造において、層ごとに出力される特徴が前層の出力と統合されることによって得られる効果は何ですか? モデルのパラメータ数が増加する 層ごとに冗長な特徴を抽出し、精度が向上する 学習速度が遅くなる 特徴の再利用によって、効率的な学習が行われ、より高い性能が得られる None 25. HREDモデルにアテンション機構を導入することで得られる利点は何ですか? モデルのパラメータ数を減らす モデルの訓練速度を向上させる 文脈内の重要な部分に注意を向け、情報を劣化させずに保持できる データの正規化が不要になる None 26. Skip-gramモデルが大規模なデータセットで効果的に機能する理由は何ですか? モデルが全ての単語ペアを一度に処理するため 中心語と文脈語のペアが多く生成され、豊富な意味的関係を学習できるため モデルが単語の出現頻度に依存しないため モデルが文の構造を無視するため None 27. EfficientNetの主な特徴は何ですか? 深さのみをスケールさせたモデル モデルの幅、解像度、深さをバランスよくスケールさせる 幅を広げることでパフォーマンスを向上させたモデル 全結合層を多用した設計 None 28. HREDモデルにおいて「デコーダ」の役割は何ですか? コンテキストエンコーダの出力に基づいて、次の文や発話を生成する 各単語をエンコードする モデルの損失関数を計算する モデルの学習率を調整する None 29. Word2VecのSkip-gramモデルにおいて「ウィンドウサイズ」の役割は何ですか? モデルの出力サイズを決定する 中心語から何語までを文脈語として考慮するかを決める モデルの学習率を決定する 単語ベクトルの次元数を決定する None 30. EfficientNetのスケーリング戦略である「Compound Scaling」の目的は何ですか? 計算コストを無視して最大限の精度を追求するため 幅、深さ、解像度をバランスよく拡大し、効率的に精度を向上させるため モデルのパラメータ数を削減するため モデルの訓練時間を短縮するため None 31. HREDモデルが「対話システム」において持つ最大の利点は何ですか? 訓練時間を短縮できる 過去の対話の文脈を長期間にわたり保持し、文脈に基づいた応答を生成できる 生成する応答を短縮できる 各発話を独立して処理できる None 32. Skip-gramモデルで、負のサンプリング(Negative Sampling)を使用する際に最も重要なハイパーパラメータは何ですか? バッチサイズ 学習率 ウィンドウサイズ サンプリングの負例の数 None 33. HREDモデルの基本的な構造は次のうちどれですか? 単一のRNNエンコーダとデコーダ 階層的に複数のエンコーダとデコーダを持つモデル 畳み込みニューラルネットワーク(CNN)を使用したモデル 自己注意機構を使用したTransformerモデル None 34. MobileNetの「アーキテクチャ検索(NAS)」技術を使用することで得られる主な利点は何ですか? モデルのパラメータ数を削減する ストライドを最適化する モデルの出力次元数を固定する モデルの学習を自動化し、最適なアーキテクチャを見つけることができる None 35. EfficientNet-B7がEfficientNet-B0に比べて優れている点は何ですか? モデルの幅、深さ、解像度が大きくスケーリングされ、精度が高い モデルが軽量で、計算リソースを節約できる 全結合層を使用していないため バッチ正規化が全く使用されていないため None 36. Skip-gramモデルで単語ベクトルが生成される際、どのように単語の意味的類似性が表現されますか? 単語の出現頻度に基づいてベクトルが作成される 文法的な関係がベクトルの距離に影響を与える 意味が類似した単語同士は、ベクトル空間上で近い位置に配置される 単語のアルファベット順にベクトルが作成される None 37. Word2VecのSkip-gramモデルで「文脈が不明な単語」を効果的に処理するために使用される技術は何ですか? 文脈を複数のサンプルに分割して、異なる文脈で単語を学習させる 単語のシャッフリング 単語ベクトルの次元数を増やす 文法的ルールを適用する None 38. DenseNetにおける「密結合」の利点は次のうちどれですか? モデルのパラメータ数を削減する 各層が他の層からの情報を再利用し、効率的な学習が可能となる モデルの訓練時間を短縮する 全ての層が独立して動作する None 39. EfficientNetにおいて「Global Average Pooling(GAP)」が使用される理由は何ですか? パラメータ数を減らし、過学習を防ぐため 特徴マップを拡大して精度を向上させるため モデルの幅をスケーリングするため 活性化関数を無効にするため None 40. Skip-gramモデルの「潜在意味解析(LSA)」との違いは何ですか? Skip-gramは単語間の意味的関係をベクトル空間上で捉えるが、LSAは頻度行列を使用する Skip-gramは文書全体を扱うが、LSAは単語を直接扱う Skip-gramは次元削減を行わないが、LSAは次元削減を行う Skip-gramは全ての単語を同じ次元に変換する None 41. MobileNetにおいて「Depthwise Separable Convolution」の主な利点は何ですか? ネットワークの層数を増やすため 計算量とパラメータ数を削減するため 特徴抽出能力を低下させるため モデルの学習速度を遅くするため None 42. HREDモデルにおいて「対話型システム」でよく使用される理由は何ですか? 生成された文を短縮できる 音声認識に特化しているため ユーザーの過去の発話や文脈を保持し、より自然な応答を生成できるため モデルのパラメータ数が少ないため None 43. MobileNetの効率的な設計において、「次元削減」の目的は何ですか? 計算コストを削減しながら、特徴マップの表現力を維持するため モデルの学習速度を遅くするため 残差接続を使用するため 勾配消失を引き起こすため None 44. MobileNetの設計において、「ストライド2」のDepthwise Convolutionを使用する主な目的は何ですか? 計算量を増加させるため モデルのパラメータ数を増やすため 特徴マップのチャネル数を減らすため 特徴マップの空間解像度を縮小し、重要な特徴を強調するため None 45. DenseNetの最大の特徴は何ですか? 各層が独立して学習を行う構造 全ての層が他の全ての層に接続される「密結合」構造 畳み込み層の数を増やすことによる性能向上 残差接続を用いて勾配消失を防ぐ None 46. HREDモデルはどのようなタスクに特に適していますか? 文書生成や対話システム 画像分類 機械翻訳 音声認識 None 47. MobileNetV2で導入された「インバーテッド残差構造(Inverted Residuals)」の主な利点は何ですか? 残差接続を無効にする 低次元空間での学習を避け、計算効率を向上させる 活性化関数をReLUからSigmoidに変更する 特徴マップのサイズを増加させる None 48. Word2VecのSkip-gramモデルにおける「ウィンドウサイズ」が大きすぎると、どのような問題が発生する可能性がありますか? 単語の類似性が低下する ノイズが増加し、関連性の低い単語が学習される可能性がある モデルのパラメータが減少する 単語の出現回数が増加する None 49. EfficientNet-B0が他のEfficientNetシリーズよりも軽量である理由は何ですか? Compound Scalingの基準となるモデルで、パラメータ数が少ないため モデルの幅と解像度が固定されているため より多くの畳み込み層を使用しているため ストライド2の畳み込みが多用されているため None 50. EfficientNetが「Squeeze-and-Excitation(SE)」ブロックを導入している理由は何ですか? パラメータ数を削減するため 各チャネルの重要度を学習し、適応的に重み付けを行うため 特徴マップのサイズを拡大するため 活性化関数を変更するため None Time's up