E資格~模擬試験~ 2024年10月31日2024年11月3日 ailearn 1. 次のRNNモデルのうち、長期依存の問題を解決するために設計されたモデルはどれですか? LSTM フィードフォワードネットワーク CNN DNN None 2. セマンティックセグメンテーションにおいて、Encoder-Decoderアーキテクチャの利点として正しいものはどれですか? 学習データを減らすことができる 予測速度を上げることができる 複雑なオブジェクトのセグメンテーションに有効である モデルの精度を犠牲にする None 3. 画像認識タスクで最も一般的に使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー誤差 ヒンジ損失 ハブ損失 None 4. GPUを使用する利点として正しいものはどれですか? 並列計算による大量のデータ処理が可能 ストレージ容量が増加する ネットワーク速度が向上する データの一貫性が保証される None 5. アンサンブル学習における「バギング(Bagging)」の主な特徴はどれですか? モデルの出力を逐次的に更新する データの順序に依存する 複数のモデルを並列に訓練し、それぞれの予測を平均化する 勾配消失問題を防ぐ None 6. エントロピー符号化の目的は何ですか? データの信頼性を向上させること データの不確実性を増やすこと エントロピーに基づいて、情報量に応じた符号を割り当てることで、データの圧縮率を高めること データの雑音を増やすこと None 7. CNNモデルにおいて、過学習を防ぐために広く用いられるテクニックはどれですか? ドロップアウト バッチ正規化 プーリング 活性化関数の変更 None 8. 物体検出アルゴリズムであるYOLOのバージョン3(YOLOv3)の主な改良点として正しいものはどれですか? 1つの解像度でのみ予測を行う 異なるスケールで予測を行い、より小さな物体も検出できる 物体の位置情報のみを予測する RPNを使用して速度を改善した None 9. Transformerのマルチヘッド注意機構では、異なる「ヘッド」を使用する利点は何ですか? モデルのパラメータ数を減少させるため 異なる部分の情報に注意を向け、より多様な特徴を学習するため モデルの計算速度を向上させるため 出力層での勾配を安定させるため None 10. 次のうち、「Proximal Policy Optimization(PPO)」の特徴として最も適切なものはどれですか? 方策の更新を制御し、過度な更新を防ぐ 経験再生を使用して効率的に学習する 確率的な行動選択を行わない データのバッチサイズを動的に変更する None 11. ドロップアウトのドロップ率が低すぎると、モデルにどのような影響がありますか? 過学習のリスクが増える モデルが学習しなくなる 学習率が増加する モデルが複雑すぎて収束しなくなる None 12. 機械学習において、交差検証を行う主な理由は何ですか? 訓練データの誤差を最小化するため テストデータをより有効に使うため モデルの過学習を防ぐため モデルのハイパーパラメータを最適化するため None 13. 自然言語処理において、テキストデータの前処理として一般的に行われる「トークン化」とは何を指しますか? テキストをエンコードする テキストを単語や文に分割する テキストを辞書に変換する テキストを圧縮する None 14. 「スパース学習」とは何を目的とする手法ですか? モデルの精度を向上させるためにパラメータ数を増やす モデルのパラメータの多くを0にすることで、計算コストを削減する ラベルなしデータを用いて特徴を学習する 報酬を用いてモデルを訓練する None 15. 平均 μ=0、標準偏差 σ=1 の標準正規分布の範囲 [-2, 2] に含まれる確率は約何%ですか? 68% 95% 99.7% 50% None 16. セマンティックセグメンテーションにおいてよく使用される損失関数はどれですか? 平均二乗誤差 クロスエントロピー損失 ヒンジ損失 ハブ損失 None 17. セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか? 画像全体に同一のラベルを割り当てるため モデルの出力を正規化するため デコーダー部分での計算コストを削減するため 各ピクセルごとにクラス確率を計算し、最も高いクラスを予測するため None 18. ロジスティック回帰において、シグモイド関数の役割は何ですか? 線形回帰の誤差を最小化するため モデルの複雑さを抑えるため データを正規化するため 予測値を確率に変換するため None 19. 自己教師あり学習の代表的な手法「SimCLR」の特徴は何ですか? ラベル付きデータを用いてモデルを訓練する 入力データに対して異なる拡張を施し、コントラスト損失を用いて特徴を学習する 生成モデルを用いてデータを生成する 逐次データを用いてリアルタイムに学習を行う None 20. 次のうち、アクセラレータを使用することで予想される課題として最も適切なものはどれですか? ストレージ容量が増える 専用のプログラミングスキルが必要になる場合がある ネットワーク速度が低下する 汎用性が高くなりすぎる None 21. 分散処理における「キャッシュの一貫性」を保つために使用される技術はどれですか? キャッシュコヒーレンスプロトコル 二相コミットプロトコル リーダー選出アルゴリズム データローカリティ None 22. 順伝播型ネットワークにおいて、ReLU関数が活性化関数として好まれる理由は次のうちどれですか? 負の値に対しても出力があるため すべての出力が1になるため モデルの重みを正規化するため 勾配消失問題を軽減できるため None 23. a b c d None 24. 次のうち、GPUアクセラレータがデータセンターで広く使用される理由として正しいものはどれですか? 高い並列処理能力を持ち、ビッグデータやAI関連の処理を効率的に行えるため 消費電力が少なく、コストが安いため ストレージ容量が多いため ネットワーク管理に特化しているため None 25. 生成モデルとは何を行うモデルですか? データの分類を行うモデル データの生成を行うモデル データの回帰を行うモデル データの削減を行うモデル None 26. 「バッチ正規化」の主な目的は何ですか? データのスケールを均一にすることで、学習を安定させる 重みの初期化を行うため データを無作為に抽出するため モデルの複雑さを増加させるため None 27. Transformerモデルにおいて、従来のRNNと異なる最大の特徴は何ですか? 並列計算が可能であること 時系列データを扱えないこと シーケンスの長さが固定であること 勾配消失問題を解決できないこと None 28. L2正則化を導入した場合、モデルの重みに対してどのような効果がありますか? 重みがすべてゼロになる 大きな重みが抑制され、モデルがより滑らかになる 学習速度が向上する モデルの出力が倍増する None 29. 分散処理システムで「ネットワークボトルネック」が発生する主な原因として最も適切なものはどれですか? 各ノードが独立して処理を行うこと 大量のデータがネットワークを介して送信される際の帯域幅不足 データの保存容量が不足すること データのローカリティが高い場合 None 30. 複数のプロジェクトで異なるバージョンのPythonやライブラリを利用する場合、どのような環境構築手法が推奨されますか? すべてのプロジェクトで同じ環境を使い回す システム全体にすべてのライブラリをインストールする 各プロジェクトで同じライブラリのバージョンを強制的に使用する 各プロジェクトごとに仮想環境を作成し、依存関係を分離する None 31. 勾配降下法において、学習率の役割は何ですか? 重みの初期値を設定するため モデルの複雑さを調整するため データのサイズを調整するため 重みの更新量を決定するため None 32. 強化学習において、報酬を割り引くために使用される値は何ですか? 学習率 割引率(Discount Factor, γ) 方策(Policy) 探索パラメータ None 33. 物体検出において「バックボーンネットワーク」の役割として正しいものはどれですか? 物体の分類を行う 画像から特徴を抽出する バウンディングボックスを生成する 出力層を設計する None 34. Transformerにおける「Decoder」の役割として正しいものはどれですか? 入力シーケンスの圧縮された表現を生成する 自己注意のみを使用して出力を予測する 残差接続を使用して入力シーケンスをそのまま出力する エンコードされた情報を基に、出力シーケンスを逐次生成する None 35. 物体検出において、「多段階検出モデル」とは何を指しますか? 画像を複数の段階で処理し、各段階で異なる特徴を学習するモデル モデルの層を追加し、複数の物体を検出するモデル データセットを分割して学習するモデル 異なる解像度の画像を同時に学習するモデル None 36. RMSPropの特徴は何ですか? 勾配の二乗平均を使用して学習率を調整する 一定の学習率で更新を行う モデルの重みをランダムに更新する 過去の重みを使用しない None 37. 順伝播型ニューラルネットワークにおけるL1正則化の効果はどれですか? 重みの一部がゼロになり、特徴量選択の役割を果たす 重みの絶対値がすべて減少する モデルの訓練速度が遅くなる モデルが過学習しやすくなる None 38. 次のうち、RNNの一種ではないものはどれですか? LSTM GRU Transformer Bidirectional RNN None 39. 「局所的解釈可能性」を持つモデルの例として正しいものはどれですか? ニューラルネットワーク 決定木 ランダムフォレスト サポートベクターマシン None 40. 「Grad-CAM(Gradient-weighted Class Activation Mapping)」の主な目的は何ですか? 畳み込みニューラルネットワークの中で、どの部分が予測に寄与したかを可視化する モデル全体の動作を評価する データの次元を削減する ラベルなしデータを自動的にラベル付けする None 41. L2正則化(リッジ回帰)の目的は何ですか? モデルのパラメータを増やすため モデルの複雑さを抑え、過学習を防ぐため 勾配の振動を抑えるため 学習速度を上げるため None 42. セマンティックセグメンテーションにおいて、「DeepLab」モデルの特徴は何ですか? 単純なCNNを使用している 空間的ピラミッドプーリング(SPP)を採用し、異なるスケールでの特徴抽出を行う 全結合層を多用する モデルの深さが浅い None 43. 次のうち、「Self-Attention Mechanism」が使用される目的として最も適切なものはどれですか? 文全体の文脈を考慮し、各単語間の依存関係を効率的に捉えるため 文章を効率的に要約するため 単語の出現頻度を学習するため テキストデータを前処理するため None 44. リカレントニューラルネットワーク(RNN)における「Teacher Forcing」の目的は何ですか? 学習を高速化するため 勾配消失問題を防ぐため モデルが過去の正しい出力に基づいて学習するようにするため 過学習を防ぐため None 45. 物体検出モデルにおいて「マルチスケール予測」とは何ですか? 物体を異なるスケールで検出する手法 物体を異なる解像度で分類する手法 学習データを複数のスケールで処理する手法 モデルを異なる学習率で訓練する手法 None 46. CNNの「畳み込みフィルタの数」を増やすと、モデルにどのような影響がありますか? モデルの学習速度が大幅に低下する モデルが捉える特徴の種類が増加し、精度が向上する可能性がある モデルが過学習しやすくなる ニューロンが無効化される None 47. 分散処理システムの利点として正しいものはどれですか? 計算リソースの効率的な利用 全てのデータを一箇所に集約して管理する 一台のサーバーに負荷を集中させる ネットワーク帯域を減らす None 48. ニューラルネットワークにおける「勾配消失問題」とは何ですか? 訓練データが不足する現象 勾配が増大しすぎる現象 勾配が極端に小さくなり、重みが更新されなくなる現象 訓練データに対する誤差が無限大になる現象 None 49. BERT(Bidirectional Encoder Representations from Transformers)の最大の特徴は何ですか? 単方向の文脈を捉える 画像認識に特化している 単語の出現頻度を考慮する 双方向の文脈を捉える None 50. 「コントラスト学習」において、ポジティブペアとネガティブペアの定義は何ですか? ポジティブペアはラベル付きデータ、ネガティブペアはラベルなしデータを指す ポジティブペアは類似したデータ、ネガティブペアは異なるデータを指す ポジティブペアはラベルなしデータ、ネガティブペアは生成されたデータを指す ポジティブペアは同じモデル、ネガティブペアは異なるモデルを指す None 51. バッチ正規化(Batch Normalization)の効果として最も適切なものはどれですか? モデルのトレーニングを安定化させる 勾配消失問題を完全に防ぐ 過学習を防ぐために学習データを削減する 学習率を低下させる None 52. Python環境における依存関係の管理を簡素化するツールとして適切なものはどれですか? Poetry Flask Git Docker None 53. 「オンライン学習」とは何ですか? 時間とともにデータを受け取り、その都度モデルを更新して学習する手法 一括してデータを学習し、最適なモデルを作成する手法 クラウドを利用してモデルを学習する手法 複数のモデルを同時に学習する手法 None 54. 畳み込み層(Convolutional Layer)の主な役割は何ですか? データの次元を削減する 入力画像から特徴を抽出する データを正規化する 全てのニューロンをランダムに無効化する None 55. 決定木モデルにおいて、エントロピーが最も低い分割の重要性は何ですか? データの分散を最大化するため 分割後の不確実性が最も低くなるため、より純粋なグループが得られる モデルの複雑さを減少させるため 決定木の深さを増やすため None 56. 回帰分析において、目的変数が連続値である場合、適切な手法は次のどれですか? ロジスティック回帰 線形回帰 サポートベクターマシン K-最近傍法 None 57. 物体検出タスクにおいて、精度と速度のバランスが取れているモデルとして知られているのはどれですか? ResNet Faster R-CNN VGG16 YOLO None 58. エッジコンピューティングにおけるセキュリティ上の課題として正しいものはどれですか? デバイスが分散しているため、物理的なセキュリティが難しい データの一元管理が可能である ネットワーク負荷が軽減される クラウド上で全てのデータを保管する None 59. RNNで使用される「状態ベクトル」は、どのような役割を果たしますか? パラメータ更新を行う 各タイムステップでの入力データを保持する 各タイムステップでの出力を計算するために使用される 現在の状態を次のタイムステップに伝える None 60. ミニバッチ勾配降下法(Mini-batch Gradient Descent)はどのような手法ですか? 訓練データ全体を使用して一度に学習する手法 データセット全体を小さなバッチに分割し、それぞれで勾配を計算して学習する手法 データを1つずつ順番に使って学習する手法 勾配を無視して重みを更新する手法 None 61. 大数の法則は何を示していますか? 大きな数は常に正しい 標本の数を増やすと、標本平均が母平均に近づく 母集団分布の形状が標本サイズに依存する 標本の数を増やすと、分散が増大する None 62. モデルにおいて、L2正則化を導入することでどのような効果が得られますか? モデルの複雑さを増やし、データに適合させる 重みがすべてゼロになる モデルの複雑さを抑え、過学習を防ぐ ニューロンの数を増加させる None 63. 深層強化学習において、連続行動空間を処理するために使用されるアルゴリズムはどれですか? DQN(Deep Q-Network) DDPG(Deep Deterministic Policy Gradient) REINFORCE Q学習 None 64. 「Global Average Pooling」が用いられる目的は何ですか? 全結合層をなくし、モデルの過学習を防ぐ 入力データを正規化する モデルの計算コストを増やす 活性化関数を調整する None 65. Faster R-CNNにおいて、RPNで生成された候補領域(Region Proposals)の数が多すぎると、どのような影響が考えられますか? 検出精度が向上するが、計算コストが増加する 検出精度が低下し、計算コストも増加する 候補領域が多いほど、精度は一定のままで計算速度が向上する 候補領域が増えると、NMSの効果がなくなる None 66. エッジコンピューティングが通信コスト削減に寄与する理由は何ですか? すべてのデータをクラウドに送信するから クラウド側で計算を行い、デバイスに結果を返すから データをエッジデバイスで処理し、クラウドへの送信データ量を減らすから 大量のデータを一度に送信するから None 67. 畳み込みニューラルネットワーク(CNN)で一般的に使用されるプーリング層の目的は何ですか? データの空間次元を削減し、モデルの計算量を抑えるため データの正規化を行うため 入力画像を拡大するため 重みを更新するため None 68. 次のうち、BERTのトレーニングに使用される主なタスクはどれですか? 画像分類 マスクされた単語の予測(Masked Language Model, MLM) 文章の圧縮 音声認識 None 69. プーリング層の主な役割は何ですか? パラメータの数を増やす 画像の解像度を高める 特徴マップの次元を縮小し、計算量を削減する 画像の色調を調整する None 70. ドロップアウト率が高すぎると、どのような影響がありますか? モデルが過学習しやすくなる ニューロンが過度に活性化する モデルが十分に学習できなくなる モデルの汎化性能が向上する None 71. Transformerにおける「Encoder-Decoder構造」の役割は何ですか? データの圧縮と復元 入力データと出力データの間でシーケンスを学習する 勾配の計算を高速化する バッチ処理を効率化する None 72. CNNで使用される「バッチ正規化(Batch Normalization)」の主な効果は何ですか? データを無作為に抽出する 重みをゼロにリセットする ニューロンをランダムに無効化する 畳み込み層での出力を正規化し、学習を安定させる None 73. 次のうち、教師なし学習の手法として最も適切なのはどれですか? ロジスティック回帰 サポートベクターマシン 線形回帰 K-平均法 None 74. 順伝播型ネットワークにおいて、出力層で使用されるソフトマックス関数が持つ主な利点は何ですか? 2つのクラスのみを処理できる 出力を確率として解釈できるため、多クラス分類に適している 勾配爆発を防ぐ 重みの更新速度を遅くする None 75. 次のうち、Seq2SeqモデルのDecoder部分で使われる典型的なRNNアーキテクチャはどれですか? CNN LSTM MLP Transformer None 76. FPGAの動作効率を最大化するために重要な要素は何ですか? ストレージの最大化 ネットワーク速度の向上 ハードウェア構成の最適化と特定タスクに合わせたプログラミング ディープラーニングのトレーニング時間の短縮 None 77. 「可視化に基づく説明性」を高めるために、畳み込みニューラルネットワークで使われる技術はどれですか? パラメータチューニング フィルター可視化 バッチ正規化 データ拡張 None 78. 順伝播型ネットワークにおけるドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化して過学習を防ぐ 学習率を調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 79. 物体検出における「アンカー(Anchor)」の役割は何ですか? 画像を小さく分割する バウンディングボックスの初期候補を提供する 物体のサイズを正規化する 出力層の勾配を安定化させる None 80. 情報理論における「エントロピー」の定義は何ですか? システムの乱雑さや不確実性を測る尺度 データを圧縮するアルゴリズム 情報の内容量 伝送速度を表す指標 None 81. 分散処理システムでの「レプリケーション」の目的は何ですか? データの可用性と耐障害性を高めるために、データを複数の場所にコピーする データを削除してシステムの負荷を軽減する データを一箇所に集約して処理する データをクラウドに送信する None 82. 「環境構築」とは何を指しますか? ソフトウェアの実行に必要な開発・運用環境を整備する作業 プログラムのデバッグ作業 ネットワークの設定作業 ソフトウェアの保守とサポート業務 None 83. Jupyter Notebookの主な用途は何ですか? データベースの管理ツール インタラクティブなデータ分析やプログラム実行を行うツール クラウドサーバーの運用ツール グラフィック処理の最適化ツール None 84. 次のうち、「REINFORCE」アルゴリズムの特徴として最も適切なものはどれですか? Q値を用いて価値関数を近似する 経験再生を行い、効率的に学習を進める 方策勾配法を使用し、方策を直接最適化する 報酬の割引率を調整する None 85. CNNにおいて、次のうち「バックプロパゲーション」を行う際に重要なプロセスはどれですか? 各フィルタの勾配を計算し、フィルタを更新する 出力層のノイズを削減する 活性化関数を変更する 入力データを拡張する None 86. 順伝播型ネットワークにおけるドロップアウト率が高すぎる場合、どのような影響がありますか? モデルが過学習しやすくなる モデルの重みがゼロに収束する モデルの精度が向上する モデルの学習が困難になり、収束しない可能性がある None 87. 次のうち、エッジコンピューティングが適用される例として最も適切なものはどれですか? センサーが集めたデータをリアルタイムで処理するIoTシステム 大規模なデータセンターでのバックアップ処理 個人のパソコンでのデータ保存 クラウド上でのデータ分析 None 88. GANにおける「ミニバッチディスクリミネーター」とは何ですか? 生成器がミニバッチ単位でデータを生成する機能 モデル全体を小さくする機能 勾配消失問題を解決するための機能 判別器がミニバッチ内の複数のサンプル間の違いを考慮して判断する機能 None 89. 「カーネルPCA」と通常のPCAの違いは何ですか? カーネルPCAは非線形な次元削減が可能 カーネルPCAは教師あり学習の手法 カーネルPCAはラベル付きデータを使用する カーネルPCAは次元を増加させる手法 None 90. 自然言語処理において「シーケンス・トゥ・シーケンス(Seq2Seq)」モデルがよく使用されるタスクはどれですか? 画像認識 音声認識 自動翻訳 データ前処理 None 91. 順伝播型ネットワークにおける活性化関数「シグモイド関数」が深層学習であまり使われない理由は何ですか? 勾配消失問題を引き起こしやすいため 勾配爆発を引き起こすため 計算コストが高いため 非線形性が低いため None 92. 物体検出における「平均適合率(mAP: mean Average Precision)」とは何を指しますか? モデルの学習速度を測定する指標 モデルの誤差を評価する指標 モデルの検出速度を評価する指標 モデルが異なるクラスの物体を検出する際の精度を平均した指標 None 93. 「Hadoop」はどのような分散処理フレームワークですか? 単一のサーバーでデータを処理するためのフレームワーク データベースの検索を高速化するフレームワーク ビッグデータを分散処理するためのオープンソースのフレームワーク 小規模なデータセットを処理するためのフレームワーク None 94. 次のうち、ドロップアウトを適用する際に避けるべき層はどれですか? 入力層 隠れ層 出力層 全結合層 None 95. 「畳み込みカーネル(フィルタ)」が複数の層で共有される場合の利点は何ですか? モデルのパラメータ数が減少し、効率が向上する モデルが過学習しやすくなる 畳み込み演算が高速化される モデルの複雑さが増す None 96. 次のうち、畳み込み層のフィルタ数を増やすと、どのような影響があるか? 計算コストが減少する モデルがより複雑になり、抽出される特徴の数が増える モデルが単純化され、汎化性能が向上する モデルのトレーニング時間が短縮される None 97. 開発環境において、「バージョン管理システム」として最も広く使用されているツールはどれですか? Docker VirtualBox Git Jupyter Notebook None 98. 次のうち、Dockerが提供する主な機能はどれですか? アプリケーションの実行環境をコンテナ化して、再現性の高い開発・運用環境を構築する GPUの計算速度を向上させる クラウドでデータベースを管理する ネットワーク通信を最適化する None 99. 自然言語処理において、次の中で「Seq2Seq」モデルにおける「Attention Mechanism」の導入効果として正しいものはどれですか? モデルの学習速度が速くなる 入力シーケンスの特定の部分に集中して処理することで、翻訳精度を向上させる モデルの出力層のパラメータ数が減少する 時系列データを処理するための新しい手法である None 100. アクセラレータを使用したディープラーニングのトレーニングにおいて、重要なパラメータの一つである「バッチサイズ」が大きくなると、どのような効果が期待されますか? メモリ使用量が減少し、トレーニングが遅くなる メモリ使用量が増加し、トレーニングが高速化する メモリ使用量が増加し、トレーニングが遅くなる メモリ使用量が減少し、トレーニングが高速化する None Time's up