AI実装検定S級~模擬試験~ 2024年11月3日 ailearn 1. HREDモデルにおいて「情報ボトルネック問題」が発生する可能性がある理由は何ですか? モデルが過去の対話を全て記憶するため モデルが同じ応答を繰り返し生成するため コンテキストエンコーダが全ての情報を1つのベクトルに圧縮するため、長い対話では情報が失われやすくなるため モデルの計算コストが高いため None 2. WideResNetが従来のResNetと異なる点は何ですか? スキップ接続を持たない 全ての畳み込み層を1x1に置き換える 残差ブロックの数が減少している 各残差ブロック内のチャネル数が広く設定されている None 3. GoogLeNetで「バッチ正規化」を適用することで期待される効果は何ですか? モデルの学習が安定し、収束速度が向上する モデルのパラメータ数が減少する 活性化関数が不要になる モデルの計算量が増加する None 4. seq2seqモデルのエンコーダとデコーダ間の情報伝達において、エンコーダの最終隠れ状態だけでなく、アテンション機構が重要となる理由は何ですか? 全ての入力シーケンスに均等に注意を向けるため エンコーダの全ての隠れ状態にアクセスすることで、長いシーケンスの情報を劣化させずに利用できるため モデルの訓練時間を短縮するため デコーダの性能を低下させないため None 5. Transformerモデルにおける「自己注意機構(Self-Attention)」の役割は何ですか? モデルが過去のデータを削除するため 入力シーケンスの全ての単語間の関係性を同時に計算し、重要な単語に注意を向けるため モデルの重みを自動で調整するため 出力シーケンスをシャッフルするため None 6. Transformerモデルにおける「学習率スケジューリング」の効果は何ですか? モデルのサイズを削減する モデルの重みを初期化する 学習率を段階的に調整することで、最適な学習速度を維持する モデルの出力を正規化する None 7. DenseNetのアーキテクチャにおける「パラメータ効率の良さ」の主な理由は次のうちどれですか? 残差接続を用いているため 各層が他の層の出力を再利用し、新しいフィルタ数を最小限に抑えるため 活性化関数がReLUの代わりにSigmoidを使用しているため 全ての層で同じフィルタ数を使用しているため None 8. Transformerモデルがseq2seqモデルに対して持つ最大の利点は何ですか? アテンション機構のみを使用することで、並列処理が可能であり、長いシーケンスでも効率的に処理できるため モデルのサイズを削減するため パラメータ数を減らすため モデルの訓練時間を短縮するため None 9. MobileNetV3で新たに採用された「ハードスワッシュ(Hard-Swish)」の活性化関数は、何を改善するために使用されますか? ReLU6の計算効率をさらに向上させるため ネガティブな出力を増加させるため 特徴抽出のための出力範囲を広げるため 活性化関数の非線形性を減らすため None 10. ResNetが「非常に深いネットワーク」においても有効に機能する理由は何ですか? 全ての層で勾配を消失させるため 残差接続が勾配消失問題を防ぎ、層が深くなっても学習が安定するため 全結合層を多用するため 勾配爆発を引き起こすため None 11. DenseNetの「トランジションレイヤー」において、プーリング操作が行われる理由は何ですか? 特徴マップの解像度を縮小し、計算コストを削減するため 特徴マップのチャネル数を増やすため モデルのパラメータ数を削減するため 勾配消失を防ぐため None 12. Skip-gramモデルで学習された単語ベクトルが「トランスファーラーニング」に適している理由は何ですか? 単語ベクトルが複数のタスクに共通して使用できるため 単語ベクトルが特定のドメインに最適化されているため 単語ベクトルが頻度に基づいて作成されるため 単語ベクトルが固定されたサイズを持つため None 13. VGGネットワークのような深層学習モデルで、深い層を追加する際に発生する「勾配消失問題」を解決するための手法はどれですか? ReLU活性化関数を使用する 重み減衰を適用する 全結合層を削除する バッチ正規化を導入する None 14. VGGネットワークが多くのパラメータを持つことの欠点を軽減するために、近年利用される技術は何ですか? データ拡張 モデルの蒸留 転移学習 プルーニング(剪定) None 15. HREDモデルの「文エンコーダ」にLSTMを使用する利点は何ですか? モデルの訓練時間を短縮できる モデルのパラメータ数を減少させる LSTMは勾配消失問題が発生しやすいため LSTMは長期的な依存関係を保持しやすく、文中の単語間の関係をより正確に捉えることができる None 16. VGG16とVGG19の違いとして正しいものはどれですか? VGG16は全てのカーネルが5x5で、VGG19は3x3である VGG16は16層、VGG19は19層の畳み込み層と全結合層を持つ VGG16はプーリング層を持たず、VGG19は持つ VGG19はVGG16と比較して、全結合層が1層多い None 17. VGGモデルにおいて、「過学習」を防ぐために取られる一般的な対策は何ですか? モデルの層数を増やす ドロップアウト層を導入する 重みのランダム初期化を行う 活性化関数を変更する None 18. MobileNetV3で導入された「ハードスワッシュ」とReLU6を比較した場合、どのような性能向上が期待されますか? ハードスワッシュは、ReLU6よりも計算効率が高く、表現力が向上する ハードスワッシュは、ReLU6よりも計算コストが高いが精度が向上する ハードスワッシュは、ReLU6と同様のパフォーマンスを持つ ReLU6は、ハードスワッシュよりも効率が良い None 19. MobileNetV2で導入された「インバーテッド残差構造(Inverted Residuals)」の主な利点は何ですか? 残差接続を無効にする 低次元空間での学習を避け、計算効率を向上させる 活性化関数をReLUからSigmoidに変更する 特徴マップのサイズを増加させる None 20. GoogLeNetで「Global Average Pooling(GAP)」が使用される理由は何ですか? 全結合層を削減し、過学習を防ぐため 特徴マップのサイズを増やすため 活性化関数を最適化するため モデルの計算速度を低下させるため None 21. MobileNetV3で導入された「Squeeze-and-Excitation(SE)ブロック」の役割は何ですか? モデルのパラメータ数を増加させるため 特徴マップの空間的解像度を増加させるため 各チャネルの重要度を学習し、適応的に特徴マップの重み付けを行うため 活性化関数をReLUに変更するため None 22. GoogLeNetが従来のCNNモデルよりも効率的に計算できる理由は何ですか? モデルの層が浅いため 1x1の畳み込みによる次元削減が計算量を大幅に削減するため 重みがランダムに初期化されているため プーリング層が使用されていないため None 23. WideResNetが「深さ」を増やす代わりに「幅」を増やす選択をする理由は何ですか? 訓練データの量を減らすため 計算量を削減するため 勾配消失問題を軽減しつつ、より多様な特徴を学習するため モデルのパラメータ数を減らすため None 24. MobileNetの「Depthwise Separable Convolution」と従来の畳み込み層を比較した場合、パラメータ数の削減率はどの程度ですか? 約10% 約50% 約75% 約90% None 25. HREDモデルの基本的な構造は次のうちどれですか? 単一のRNNエンコーダとデコーダ 階層的に複数のエンコーダとデコーダを持つモデル 畳み込みニューラルネットワーク(CNN)を使用したモデル 自己注意機構を使用したTransformerモデル None 26. ResNetで使用される「バッチ正規化(Batch Normalization)」の主な役割は何ですか? 学習率を自動で最適化するため モデルの計算量を減らすため 各層の出力を正規化し、学習の安定性を向上させるため 残差接続の効果を無効にするため None 27. seq2seqモデルにおいて、「コンテキストベクトル」の役割は何ですか? モデルの出力を最適化する モデルの誤差を修正する モデルの学習率を調整する エンコーダが入力シーケンスをエンコードした結果をまとめ、デコーダに渡す情報を要約する None 28. EfficientNetの「Compound Scaling」を調整する際、幅を大きくスケーリングしすぎるとどのような問題が発生しますか? モデルの深さが減少し、学習が不安定になる 計算コストが減少しすぎ、精度が著しく低下する 特徴マップのチャネル数が減少しすぎて、表現力が低下する モデルの計算コストが大幅に増加し、効率が低下する None 29. VGGネットワークの全結合層を削減した場合、予想される効果は何ですか? モデルの精度が大幅に向上する パラメータ数が減少し、メモリ使用量が少なくなる モデルの計算速度が遅くなる モデルの訓練が困難になる None 30. Transformerモデルの「Layer-wise Relevance Propagation(LRP)」は何を目的としていますか? モデルの学習速度を向上させる モデルの各層における出力の重要度を評価し、説明可能なAIを実現するため モデルの出力を調整するため データの欠損を補完するため None 31. VGGネットワークで使用される「最大プーリング(Max Pooling)」の主な目的は何ですか? 特徴マップのサイズを増加させる モデルの計算速度を遅くするため 重要な特徴を抽出し、特徴マップのサイズを縮小するため モデルの出力サイズを固定するため None 32. VGGネットワークで「カーネルサイズを小さくする」設計の意図は何ですか? モデルの精度を低下させるため 訓練データを削減するため パラメータ数を削減しながら、同等の受容野を確保するため モデルの出力サイズを変更するため None 33. VGGネットワークが従来のCNNモデルと比較して持つ利点は何ですか? 訓練時間が大幅に短縮される より浅いネットワークで同等の性能を達成する より深い層を使用することで、より抽象的な特徴を学習できる 全結合層を減らすことでパラメータ数が減る None 34. VGGネットワークにおける「ゼロパディング」の主な役割は何ですか? 特徴マップのサイズを固定し、畳み込み層で情報の損失を防ぐため モデルの訓練時間を短縮するため モデルの出力をシャッフルするため モデルの重みを初期化するため None 35. TransformerモデルがRNNベースのseq2seqモデルと比較して持つ利点はどれですか? モデルのパラメータ数が少ない 時系列処理に依存せず、並列処理が可能で学習が高速化される 学習に多くのデータが必要 モデルが入力シーケンスを自動で正規化する None 36. Word2VecのSkip-gramモデルにおける「ウィンドウサイズ」が大きすぎると、どのような問題が発生する可能性がありますか? 単語の類似性が低下する ノイズが増加し、関連性の低い単語が学習される可能性がある モデルのパラメータが減少する 単語の出現回数が増加する None 37. GoogLeNetの「Inceptionモジュール」の設計において、次元削減を行わないとどのような影響がありますか? モデルの性能が向上する モデルのパラメータ数が減少する モデルの学習速度が向上する モデルの計算量が増加し、メモリ使用量が大幅に増加する None 38. GoogLeNetの訓練において、学習率スケジューリングを使用する理由は何ですか? モデルの訓練時間を増やすため モデルのパラメータ数を増やすため 学習が進むにつれて学習率を徐々に減少させ、最適な収束を促すため 勾配消失問題を防ぐため None 39. MobileNetの設計において、「ハイパーパラメータα(アルファ)」は何を調整するために使用されますか? モデルの深さを調整する 活性化関数の種類を決定する モデルの幅(チャネル数)を調整し、計算コストと精度をバランスさせる モデルの学習率を最適化する None 40. Skip-gramモデルで、負のサンプリング(Negative Sampling)を使用する際に最も重要なハイパーパラメータは何ですか? バッチサイズ 学習率 ウィンドウサイズ サンプリングの負例の数 None 41. Transformerモデルのトレーニングにおいて「学習率ウォームアップ」を使用する理由は何ですか? モデルの学習を開始する前に、学習率を徐々に増加させて安定した学習を行うため モデルの重みを初期化するため モデルの過学習を防ぐため データの正規化を行うため None 42. DenseNetが他の深層学習モデルに比べて「メモリ効率が高い」と言われる理由は何ですか? モデルのパラメータ数が少ないため トランジションレイヤーが全ての層に適用されているため 特徴マップのサイズを一定に保っているため 各層が特徴マップを再利用し、不要な計算を減らしているため None 43. MobileNetの効率的な設計において、「次元削減」の目的は何ですか? 計算コストを削減しながら、特徴マップの表現力を維持するため モデルの学習速度を遅くするため 残差接続を使用するため 勾配消失を引き起こすため None 44. ResNet/WideResNetにおける「Global Average Pooling(GAP)」の使用は何を目的としていますか? パラメータ数を増加させるため 最終的な特徴マップを集約し、過学習を防ぐため 特徴マップのサイズを増加させるため 勾配消失問題を軽減するため None 45. GoogLeNetの設計において「枝分かれしたネットワーク(分岐)」を採用する理由は何ですか? モデルの計算速度を向上させるため モデルのパラメータ数を削減するため 単一の出力に依存することを防ぐため 異なる解像度で特徴を学習し、モデルの汎用性を高めるため None 46. GoogLeNetの設計で「プーリング層」を使用する主な目的は何ですか? パラメータ数を増やすため モデルの計算速度を低下させるため 特徴マップのサイズを縮小し、重要な特徴を強調するため 活性化関数を最適化するため None 47. Skip-gramモデルの学習において「ネガティブサンプリング」の目的は何ですか? モデルの学習率を最適化する 計算コストを削減しながら、モデルの精度を維持するため 単語ベクトルの次元数を増やすため 文脈語の出現頻度を増やすため None 48. DenseNetにおける「密結合」の利点は次のうちどれですか? モデルのパラメータ数を削減する 各層が他の層からの情報を再利用し、効率的な学習が可能となる モデルの訓練時間を短縮する 全ての層が独立して動作する None 49. seq2seqモデルにおける「アテンション機構」の役割は何ですか? モデルのトレーニング時間を短縮するため モデルが全ての入力シーケンスを同時に処理するため デコーダがエンコーダの全ての出力に注意を向けて、適切な情報を重視するため モデルがデータをシャッフルするため None 50. ResNetが「オーバーフィッティング」を防ぐために使用する手法は次のうちどれですか? ドロップアウト 残差接続 正則化 L2正則化 None Time's up