E資格~模擬試験~ 2024年10月31日2024年11月3日 ailearn 1. 雑音が含まれる通信路において、符号化率 R が通信路容量 C より小さい場合、次のうち正しい記述はどれですか? 伝送誤りが発生する 通信が誤りなく行われる 通信が停止する データの圧縮率が向上する None 2. 次の中で、BERTとGPTの主な違いとして正しいものはどれですか? BERTは双方向、GPTは一方向の文脈を学習する BERTは文章生成に特化しており、GPTは文章理解に特化している BERTは主に画像認識で使用され、GPTは音声認識で使用される BERTは小規模データで学習され、GPTは大規模データで学習される None 3. 次の文脈に最も適したアーキテクチャを選んでください:「非常に長いシーケンスを処理し、長期的な依存関係をより効率的にモデル化できる手法」 単純RNN GRU Transformer LSTM None 4. 分散処理システムで「キャパシティプランニング」を行う際に考慮すべき要素はどれですか? ノード数、データ量、処理速度、ネットワーク帯域 データの種類とラベルの数 データを一元的に管理する方法 クラウドストレージの容量 None 5. CNNにおける「フィルタサイズ」と「ストライド」の関係について正しい説明はどれですか? ストライドが大きくなると出力サイズが大きくなる ストライドが大きくなると出力サイズが小さくなる フィルタサイズが小さいと出力サイズが増える フィルタサイズが大きいとストライドが小さくなる None 6. 確率の定義において、サンプルスペース(標本空間)とは何ですか? 発生しうる全ての結果の集合 確率が0になる事象の集合 予想される結果の集合 可能な事象の一部を集めたもの None 7. 自然言語処理において「Attention Mechanism」の役割は何ですか? 単語の重要度を測定し、重要な単語に焦点を当てる 単語の出現頻度を学習する 文全体の長さを調整する 文章の要約を行う None 8. 「教師なし学習」の主な目的は何ですか? モデルが入力データから潜在的な構造を見つけ出すこと ラベル付きデータを使ってモデルを訓練すること 報酬に基づいて行動を選択すること モデルが自動的にラベルを生成すること None 9. 分散処理システムの利点として正しいものはどれですか? 計算リソースの効率的な利用 全てのデータを一箇所に集約して管理する 一台のサーバーに負荷を集中させる ネットワーク帯域を減らす None 10. エッジコンピューティングが求められるシナリオとして適切なものはどれですか? 大量のデータをバックアップするためのリモートサーバー 通常のデータストレージ用途のパーソナルクラウド 高速なリアルタイム処理が必要な自動運転システム 大規模なバッチ処理が必要な分析システム None 11. DCGAN(Deep Convolutional GAN)の特徴は何ですか? RNNを使用して時系列データを生成する LSTMを使用して文章を生成する 畳み込みニューラルネットワークを使用して画像生成を行う バッチ正規化を行わない None 12. ディープラーニング環境をGPU対応にするために必要な操作として最も適切なものはどれですか? CPUのみを使用するように環境を設定する GPUを無効化してトレーニングを行う 特定のライブラリをインストールせずにトレーニングを行う GPU対応のディープラーニングライブラリとCUDAおよびcuDNNのインストール None 13. a b c d None 14. 順伝播型ネットワークにおける活性化関数「シグモイド関数」が深層学習であまり使われない理由は何ですか? 勾配消失問題を引き起こしやすいため 勾配爆発を引き起こすため 計算コストが高いため 非線形性が低いため None 15. 次のうち、AIの推論処理に特化したアクセラレータはどれですか? SSD TPU HDD NIC None 16. 「アンサンブル学習」の一種である「ブースティング」の特徴はどれですか? 各モデルを並列に訓練する 正則化を強化する バッチサイズを増加させる 各モデルを逐次的に訓練し、前のモデルのエラーを修正する None 17. 情報理論における「エントロピー」の定義は何ですか? システムの乱雑さや不確実性を測る尺度 データを圧縮するアルゴリズム 情報の内容量 伝送速度を表す指標 None 18. 次のうち、Transformerにおける残差接続(Residual Connection)の目的として正しいものはどれですか? モデルのパラメータを削減する 勾配消失問題を緩和し、深いネットワークでも学習を安定させる モデルの計算速度を向上させる 出力層の精度を向上させる None 19. 機械学習モデルの評価指標である「精度(accuracy)」は何を意味しますか? モデルが正しく分類したデータの割合 モデルの複雑さ モデルが学習したデータの量 モデルの訓練速度 None 20. エッジコンピューティングの進化に伴い、将来的に予測される応用分野として適切なものはどれですか? 大規模なデータセンターの運営 オンラインショッピングの配送管理 デスクトップアプリケーションの処理 スマートシティのリアルタイム交通管理システム None 21. ドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化し、過学習を防ぐ モデルの学習率を調整する 勾配の更新を加速する データの正規化を行う None 22. 独立な事象 A と B の同時発生確率は、次のうちどれですか? P(A) + P(B) P(A | B) × P(B) P(A) - P(B) P(A) × P(B) None 23. 「説明可能AI」の導入が特に重要視されるケースはどれですか? ゲームAIやチャットボット 音声認識システム 画像処理タスク 医療診断システムや金融スコアリングシステムなどの分野 None 24. 自己注意(Self-Attention)機構の計算において、各トークンのスコアはどのように計算されますか? 各トークンのベクトルの内積 各トークンの位置情報を参照 トークンの順序を無視してランダムに決定 トークンの勾配に基づいて計算 None 25. 次のうち、U-Netの主な応用先として正しいものはどれですか? 画像の分類 画像の拡大縮小 画像のセグメンテーション 画像の変換 None 26. GAN(Generative Adversarial Network)の構成要素として正しいものはどれですか? エンコーダとデコーダ 判別器と生成器 バッチ正規化とドロップアウト 畳み込み層とプーリング層 None 27. エッジコンピューティングのデバイスが持つ「電力制約」を軽減するために採用される技術はどれですか? 低消費電力のプロセッサや効率的なアルゴリズムの利用 クラウドへのデータ転送の増加 バックアップの頻度を増加させる データ処理を全てクラウドに移行する None 28. 生成モデルとは何を行うモデルですか? データの分類を行うモデル データの生成を行うモデル データの回帰を行うモデル データの削減を行うモデル None 29. 「ハードサンプルマイニング」とは、どのような手法ですか? ラベルなしデータを用いてランダムにサンプリングする手法 モデルのパラメータ数を削減する手法 モデルが誤分類しやすいデータを重点的に学習する手法 ラベル付きデータを使わずに学習する手法 None 30. 情報理論において、雑音が多い通信路でエラーを減らすための典型的な方法はどれですか? 符号化の冗長性を減らす データを削除する 符号を短くする より多くの冗長性を追加する None 31. 「MapReduce」の「Reduce」フェーズの役割は何ですか? Mapフェーズで生成されたキーと値のペアを集約し、最終結果を生成する 入力データを分割し、キーと値のペアを生成する データをクラウドに送信する データを保存する None 32. 「自己回帰モデル(Auto-Regressive Model)」とTransformerの関係性について正しいものはどれですか? Transformerは自己回帰モデルとして動作する Transformerは自己回帰モデルの欠点を補完する Transformerは自己回帰モデルの一部である Transformerは自己回帰モデルを全く使用しない None 33. 分散処理システムにおいて「一貫性、可用性、分断耐性(CAP定理)」に関して正しい説明はどれですか? 一度に全てを満たすことが可能である 一度に全てを満たすことはできず、トレードオフが必要である 可用性だけが重要である 分断耐性は重要ではない None 34. 「スパース学習」とは何を目的とする手法ですか? モデルの精度を向上させるためにパラメータ数を増やす モデルのパラメータの多くを0にすることで、計算コストを削減する ラベルなしデータを用いて特徴を学習する 報酬を用いてモデルを訓練する None 35. Jupyter Notebookの主な用途は何ですか? データベースの管理ツール インタラクティブなデータ分析やプログラム実行を行うツール クラウドサーバーの運用ツール グラフィック処理の最適化ツール None 36. L2正則化を導入した場合、モデルの重みに対してどのような効果がありますか? 重みがすべてゼロになる 大きな重みが抑制され、モデルがより滑らかになる 学習速度が向上する モデルの出力が倍増する None 37. 強化学習において「逆強化学習(Inverse Reinforcement Learning)」の目的は何ですか? エージェントの行動を予測すること 環境の状態を再構成すること 報酬関数を未知の状態で推定すること 方策を直接学習すること None 38. 次のうち、セマンティックセグメンテーションで頻繁に使用される「Skip Connection」の役割として正しいものはどれですか? ネットワークの計算速度を向上させる エンコーダーからデコーダーに直接特徴を伝達し、詳細情報を補完する ピクセルごとの分類精度を下げる モデルのパラメータ数を減らす None 39. 「SHAP(Shapley Additive Explanations)」の基本的な考え方は何ですか? モデル全体の挙動を定性的に評価する モデルの計算時間を最小化する 各特徴が予測にどれだけ貢献したかを定量的に示す モデルをランダムに評価する None 40. 最適化手法の1つである「モーメンタム法」の主な目的は何ですか? 勾配の振動を抑え、学習を加速するため モデルの複雑さを抑えるため 勾配爆発を防ぐため モデルの損失を増やすため None 41. a b c d None 42. 「Hadoop」はどのような分散処理フレームワークですか? 単一のサーバーでデータを処理するためのフレームワーク データベースの検索を高速化するフレームワーク ビッグデータを分散処理するためのオープンソースのフレームワーク 小規模なデータセットを処理するためのフレームワーク None 43. StyleGANの特徴として正しいものはどれですか? 生成される画像のスタイルを自由に制御できる テキスト生成に特化している 判別器を用いない モード崩壊を防ぐための技術が組み込まれている None 44. 情報量の単位として「ビット」が使われる理由は何ですか? 2つの可能な結果を区別するのに必要な情報量が1ビットだから 情報の量を測定するための物理的単位であるため 情報の伝送速度を示す指標であるため 情報源のエントロピーを表すため None 45. 畳み込み層(Convolutional Layer)の主な役割は何ですか? データの次元を削減する 入力画像から特徴を抽出する データを正規化する 全てのニューロンをランダムに無効化する None 46. 「Scaled Dot-Product Attention」において、スコアをスケーリングする理由は何ですか? スコアが小さくなりすぎるのを防ぐため スコアが大きくなりすぎるのを防ぐため 勾配消失を防ぐため 計算コストを削減するため None 47. ドロップアウト率を0.5に設定した場合、訓練時の挙動として正しいのはどれですか? 各訓練ステップで50%の重みがリセットされる ニューロンの出力が半減する 各訓練ステップでランダムに50%のニューロンが無効化される モデルの精度が常に向上する None 48. 順伝播型ネットワークにおいて、ミニバッチのサイズが大きすぎると、学習にどのような影響がありますか? 学習が不安定になり、損失関数が振動する 勾配の更新が速くなり、過学習が発生しやすくなる 勾配の更新が遅くなり、学習が効率的に進まない モデルが過学習するリスクが低くなる None 49. Faster R-CNNの特徴として正しいものはどれですか? 1ステージの物体検出アルゴリズムである YOLOよりも高速だが、精度は低い RPNを用いて物体の候補領域を生成する 物体の数に応じてニューラルネットワークを動的に構築する None 50. 次のうち、「REINFORCE」アルゴリズムの特徴として最も適切なものはどれですか? Q値を用いて価値関数を近似する 経験再生を行い、効率的に学習を進める 方策勾配法を使用し、方策を直接最適化する 報酬の割引率を調整する None 51. ドロップアウトがリカレントニューラルネットワーク(RNN)に対して効果的な理由は何ですか? 過学習を防ぎ、ネットワークが長期間の依存関係を捉えるのを助ける 重みの初期化を行うため 訓練データのサイズを増加させるため 勾配消失を完全に防ぐため None 52. アダム(Adam)最適化アルゴリズムで使用される「1次モーメント推定」と「2次モーメント推定」の役割は何ですか? 勾配の平均と分散を計算し、適応的な学習率を提供するため モデルの重みを初期化するため モデルの誤差を最小化するため ニューラルネットワークの層数を増やすため None 53. CNNにおいて「ReLU(Rectified Linear Unit)」が活性化関数として好まれる理由は何ですか? 出力が常に0になるため 勾配の爆発を防ぐため 計算が簡単で、勾配消失問題を軽減できるため データを正規化するため None 54. CNNにおける「パディング」の主な目的は何ですか? 入力画像のサイズを増加させる 畳み込み演算後の出力サイズを保持するために入力データの周りをゼロで埋める 出力層での正規化を行う ニューロンの活性化を抑える None 55. 次のうち、「BPE(Byte Pair Encoding)」が自然言語処理で使用される理由として正しいものはどれですか? テキストデータを圧縮するため 単語の出現頻度を学習するため テキストデータの前処理を自動化するため 未知の単語や希少な単語を処理するためのサブワード分割手法 None 56. Transformerの「Feedforward Neural Network」部分は何を行いますか? データを圧縮する 各トークンの自己注意後の表現をさらに変換し、次の層に渡す 各トークンの位置情報を埋め込む 勾配をクリッピングする None 57. 「正則化(Regularization)」の目的として正しいものはどれですか? モデルのパラメータ数を増やす モデルの過学習を防ぐ 学習率を高める 勾配消失問題を解決する None 58. CNNにおいて、フィルタ(カーネル)の役割は何ですか? 特徴マップの次元を減らす 入力画像から特徴を抽出する モデルの精度を低下させる データのノイズを増やす None 59. RNNの勾配爆発問題に対処するために採用される技術は次のうちどれですか? 勾配クリッピング ドロップアウト L2正則化 バッチ正規化 None 60. 深層強化学習において、エージェントの行動の説明性を向上させるために使われる技術の一つは何ですか? 状態価値関数の可視化 勾配ブースティング サポートベクターマシンの適用 データの正規化 None 61. GANの訓練における問題点として最も一般的なものは何ですか? 過学習 学習率の低下 バッチサイズの不足 モード崩壊 None 62. 次のうち、BERTのトレーニングに使用される主なタスクはどれですか? 画像分類 マスクされた単語の予測(Masked Language Model, MLM) 文章の圧縮 音声認識 None 63. リカレントニューラルネットワーク(RNN)の順伝播において、各タイムステップで計算される出力は何に基づいていますか? 前のタイムステップの入力のみ 現在のタイムステップの入力のみ 現在のタイムステップの入力と前のタイムステップの出力 全タイムステップの入力 None 64. ニューラルネットワークの学習において、「重みの初期化」が適切でないと、どのような現象が発生する可能性が最も高いですか? 学習速度が非常に速くなる 勾配消失や勾配爆発が発生し、モデルの学習が進まなくなる モデルが常に最適解に収束する 学習が停止してしまう None 65. 自然言語処理において、テキストデータの前処理として一般的に行われる「トークン化」とは何を指しますか? テキストをエンコードする テキストを単語や文に分割する テキストを辞書に変換する テキストを圧縮する None 66. 次のうち、データ拡張を行う際に最も適切なシナリオはどれですか? 学習データが非常に多い場合 学習データが少なく、汎化性能が低い場合 モデルが過学習をしていない場合 パラメータが多い場合 None 67. ある通信路で、信号対雑音比 (SNR) が 20dB、帯域幅が 2kHz であるとき、シャノンの通信路容量はおよそどれですか? 20 kbps 26.6 kbps 13.3 kbps 40 kbps None 68. セマンティックセグメンテーションで、アトリウムネットワーク(Atrous Convolution)が使用される理由として最も適切なものはどれですか? 高解像度の特徴を維持しながら、広い受容野を確保するため 計算コストを削減するため 全結合層を減らすため モデルのサイズを縮小するため None 69. ドロップアウトのドロップ率が低すぎると、モデルにどのような影響がありますか? 過学習のリスクが増える モデルが学習しなくなる 学習率が増加する モデルが複雑すぎて収束しなくなる None 70. 自然言語処理において「シーケンス・トゥ・シーケンス(Seq2Seq)」モデルがよく使用されるタスクはどれですか? 画像認識 音声認識 自動翻訳 データ前処理 None 71. VAEにおいて、潜在空間の次元数を増やすとどのような効果がありますか? 再構成精度が向上するが、生成データの多様性が低下する 再構成精度が低下し、生成データの多様性が向上する 再構成精度と生成データの多様性が両方とも向上する モデルの計算コストが下がる None 72. 順伝播型ネットワークにおけるドロップアウト(Dropout)の役割は何ですか? ニューロンをランダムに無効化して過学習を防ぐ 学習率を調整する 訓練データの一部を削除する モデルの精度を向上させるためにニューロンを追加する None 73. 次の中で、「Attention Mechanism」を利用する利点は何ですか? 遠い過去の情報に対しても重要な部分に注意を集中させることができる 勾配消失問題を解決できる 全ての入力情報に対して一様な重みを割り当てる 計算リソースを大幅に削減できる None 74. エッジコンピューティングにおいて、デバイス間の通信の信頼性を確保するために必要な対策として最も適切なものはどれですか? デバイスの計算速度を上げる ネットワークの冗長化やデータの暗号化 全てのデータをクラウドに送信する ネットワーク帯域を減らす None 75. 物体検出において「バックボーンネットワーク」の役割として正しいものはどれですか? 物体の分類を行う 画像から特徴を抽出する バウンディングボックスを生成する 出力層を設計する None 76. KNN(K-Nearest Neighbors)アルゴリズムにおいて、K の値を大きく設定すると何が起こりますか? モデルのバイアスが大きくなり、過剰に単純化される可能性がある モデルがより過学習しやすくなる モデルの複雑さが増し、学習速度が低下する モデルの精度が常に向上する None 77. 「ブラックボックス攻撃」とはどのようなものですか? モデルの内部構造を知らずに攻撃を行い、その結果を基にモデルの脆弱性を探る手法 モデルのパラメータを直接変更して攻撃する手法 モデルに対してラベル付きデータを用いて攻撃する手法 モデルの精度を最大化するための手法 None 78. 情報圧縮におけるハフマン符号の役割は何ですか? データのエントロピーを減らす データを効率的に符号化するために最適な可変長符号を生成する データを復元する データをランダムに並べ替える None 79. セマンティックセグメンテーションで使用される「Pyramid Scene Parsing Network(PSPNet)」の利点は何ですか? オブジェクトのサイズにかかわらず、正確なセグメンテーションを実現できる 高速なリアルタイム予測が可能である 簡単なアーキテクチャを持つ 全結合層を使用せず、セグメンテーション精度を高める None 80. GPUと比べたFPGAの利点として正しいものはどれですか? 固定されたアーキテクチャを持ち、高速な並列計算が得意である 主にグラフィックス処理に使用される アーキテクチャを柔軟に変更でき、特定の用途に最適化できる 大規模なディープラーニングに特化している None 81. 分散処理の「フォールトトレランス」とは何ですか? データをバックアップするための技術 データの保存容量を増やす技術 システムが障害発生時でも処理を継続できる能力 ネットワークを冗長化する技術 None 82. FPGAと比べたGPUの利点として正しいものはどれですか? 特定のタスクに特化して設計可能 プログラミングが容易で汎用性が高い 消費電力が少ない ハードウェア構成を自由に変更可能 None 83. 順伝播型ネットワークにおいて、ReLU関数が活性化関数として好まれる理由は次のうちどれですか? 負の値に対しても出力があるため すべての出力が1になるため モデルの重みを正規化するため 勾配消失問題を軽減できるため None 84. エッジコンピューティングにおける「リアルタイム性」を確保するために重要な要素はどれですか? データをクラウドに送り、結果を待つこと データを定期的にバックアップすること 大量のデータを一度に送信すること データをエッジデバイスで即時に処理すること None 85. 次のRNNモデルのうち、長期依存の問題を解決するために設計されたモデルはどれですか? LSTM フィードフォワードネットワーク CNN DNN None 86. 物体検出における「アンカー(Anchor)」の役割は何ですか? 画像を小さく分割する バウンディングボックスの初期候補を提供する 物体のサイズを正規化する 出力層の勾配を安定化させる None 87. 次のうち、アクセラレータを使用することで予想される課題として最も適切なものはどれですか? ストレージ容量が増える 専用のプログラミングスキルが必要になる場合がある ネットワーク速度が低下する 汎用性が高くなりすぎる None 88. CNNにおいて、畳み込み層とプーリング層の組み合わせはどのような効果をもたらしますか? データの次元を削減し、重要な特徴を抽出する モデルの精度を低下させる モデルの計算速度を遅くする モデルの重みを無作為に変更する None 89. L2正則化とドロップアウトのどちらかを使用すべき場面として最も適切な状況はどれですか? データが非常に多く、過学習のリスクが低い場合 ニューラルネットワークの深さを増やしたい場合 モデルの訓練時間を短縮したい場合 データが少なく、過学習のリスクが高い場合 None 90. バッチ正規化を使用することで、次のどの効果が得られますか? モデルの収束速度が速くなる トレーニングデータの必要量が増加する 正則化の効果が薄れる 勾配爆発問題が発生しやすくなる None 91. 「反事実的説明(Counterfactual Explanation)」の主な目的は何ですか? 予測結果が変わるために、どの特徴量をどの程度変えるべきかを示す モデルのパラメータを変更する手法を提示する ランダムに特徴量を入れ替えて結果を評価する 予測結果を変更することなくデータを拡張する None 92. 情報理論における「相互情報量」とは何を意味しますか? 2つの変数がどれだけ同時に発生するかを示す 2つのデータセット間の距離 2つの確率変数間で共有される情報量 情報量を圧縮する際の削減率 None 93. GPUを使用する利点として正しいものはどれですか? 並列計算による大量のデータ処理が可能 ストレージ容量が増加する ネットワーク速度が向上する データの一貫性が保証される None 94. 「説明可能AI(Explainable AI, XAI)」の主な目的は何ですか? モデルがなぜ特定の予測を行ったのかを理解しやすくすること モデルの学習速度を向上させること モデルの訓練データ量を減らすこと モデルの予測精度を下げること None 95. セマンティックセグメンテーションにおいて、「ピクセルワイズソフトマックス(Pixel-wise Softmax)」が必要とされる理由は何ですか? 画像全体に同一のラベルを割り当てるため モデルの出力を正規化するため デコーダー部分での計算コストを削減するため 各ピクセルごとにクラス確率を計算し、最も高いクラスを予測するため None 96. 順伝播型ネットワークにおいて、勾配降下法の「ミニバッチサイズ」を大きく設定した場合の利点はどれですか? モデルが過学習しやすくなる データの分散が大きくなる 勾配の更新が安定しやすくなり、収束速度が向上する可能性がある 訓練データがランダムに変更される None 97. Transformerにおける「ポジショナルエンコーディング」の役割は何ですか? シーケンス全体を圧縮する 時系列データの位置情報を反映させる 勾配消失を防ぐ モデルの出力を正規化する None 98. 「オンライン学習」とは何ですか? 時間とともにデータを受け取り、その都度モデルを更新して学習する手法 一括してデータを学習し、最適なモデルを作成する手法 クラウドを利用してモデルを学習する手法 複数のモデルを同時に学習する手法 None 99. 平均 μ=0、標準偏差 σ=1 の標準正規分布の範囲 [-2, 2] に含まれる確率は約何%ですか? 68% 95% 99.7% 50% None 100. 分散処理システムでの「レプリケーション」の目的は何ですか? データの可用性と耐障害性を高めるために、データを複数の場所にコピーする データを削除してシステムの負荷を軽減する データを一箇所に集約して処理する データをクラウドに送信する None Time's up