E資格~模擬試験②~ 2024年12月7日 ailearn 1. 自動運転車におけるエッジコンピューティングの役割として最も重要なものはどれですか? 車両がクラウドサーバーにすべてのデータを送信して処理する 車両内でデータを保管するだけで、クラウドに依存する 車両が他の車両とデータを共有するための手段を提供する 車両内でリアルタイムにデータを処理し、外部ネットワークに依存せずに意思決定を行う None 2. 次のうち、GPUとFPGAの選択を決定する上で最も重要な要素は何ですか? 計算の性質や目的に応じた適切なハードウェアの選択 ストレージの容量 ネットワーク帯域幅 デバイスの色 None 3. RNNのバックプロパゲーションでは、勾配がどのように計算されますか? 順方向に伝播しながら計算 全タイムステップにわたって逆伝播し、誤差を計算 各タイムステップごとに個別に計算 勾配を記憶し、タイムステップごとに加算 None 4. 「Terraform」を使用する主な目的は何ですか? インフラをコードとして管理し、クラウドリソースを自動的に構築・管理するため ディープラーニングモデルをトレーニングするため ネットワーク帯域を最適化するため データベースのパフォーマンスを改善するため None 5. 次のうち、強化学習において「多腕バンディット問題」が示す課題として最も適切なものはどれですか? 状態空間の次元削減に関する課題 環境の報酬構造を推定する課題 行動の決定に時間がかかる問題 探索と活用のバランスを取る課題 None 6. エッジコンピューティングにおいて、デバイス間の通信の信頼性を確保するために必要な対策として最も適切なものはどれですか? デバイスの計算速度を上げる ネットワークの冗長化やデータの暗号化 全てのデータをクラウドに送信する ネットワーク帯域を減らす None 7. Transformerの各層において、正規化(Normalization)はどのような役割を果たしますか? 計算コストを削減する 出力を安定化させ、学習を効率化する モデルの深さを減らす 残差接続を削除する None 8. Transformerにおける「Encoder-Decoder構造」の役割は何ですか? データの圧縮と復元 入力データと出力データの間でシーケンスを学習する 勾配の計算を高速化する バッチ処理を効率化する None 9. 次のうち、ドロップアウトを適用する際に避けるべき層はどれですか? 入力層 隠れ層 出力層 全結合層 None 10. 「教師なし学習」の主な目的は何ですか? モデルが入力データから潜在的な構造を見つけ出すこと ラベル付きデータを使ってモデルを訓練すること 報酬に基づいて行動を選択すること モデルが自動的にラベルを生成すること None 11. エッジコンピューティングの導入によって、クラウド上のデータ処理に与える影響として正しいものはどれですか? クラウドへのデータ送信量が減り、クラウドの負荷が軽減される クラウドへのデータ送信量が増え、クラウドの負荷が増加する クラウドの負荷には全く影響しない クラウドへの依存が完全になくなる None 12. 「局所的解釈可能性」を持つモデルの例として正しいものはどれですか? ニューラルネットワーク 決定木 ランダムフォレスト サポートベクターマシン None 13. 変分オートエンコーダ(VAE)の目的は何ですか? データの圧縮と生成 データの分類 データの回帰 データの分割 None 14. 分散処理システムにおける「データパーティショニング」の目的は何ですか? データを一箇所に集約して保存する データを圧縮して保存する データの一貫性を保証する データを複数のノードに分割して保存し、負荷を分散する None 15. 「正則化(Regularization)」の目的として正しいものはどれですか? モデルのパラメータ数を増やす モデルの過学習を防ぐ 学習率を高める 勾配消失問題を解決する None 16. Transformerにおける「ポジショナルエンコーディング」の役割は何ですか? シーケンス全体を圧縮する 時系列データの位置情報を反映させる 勾配消失を防ぐ モデルの出力を正規化する None 17. Transformerの構成要素の一つである「Multi-Head Attention」の目的は何ですか? 単一の注意機構よりも複雑な関係を捉えるため 計算リソースを削減するため モデルの層を深くするため 勾配消失問題を回避するため None 18. GANの判別器が「本物」と「偽物」のデータを正確に識別できるようになりすぎた場合、生成器にどのような問題が発生しますか? 生成器が学習できなくなる 生成器がより高品質なデータを生成できる 生成器がモード崩壊を起こす 生成器のパラメータ数が増加する None 19. 「説明可能AI(Explainable AI, XAI)」の主な目的は何ですか? モデルがなぜ特定の予測を行ったのかを理解しやすくすること モデルの学習速度を向上させること モデルの訓練データ量を減らすこと モデルの予測精度を下げること None 20. 「説明可能AI」の導入が特に重要視されるケースはどれですか? ゲームAIやチャットボット 音声認識システム 画像処理タスク 医療診断システムや金融スコアリングシステムなどの分野 None 21. FPGA(Field Programmable Gate Array)の特徴として正しいものはどれですか? 予め固定された構成を持つデバイス 主にデータストレージとして使用されるデバイス グラフィック処理を高速化するためのデバイス ユーザーがハードウェアの構成を再プログラム可能なデバイス None 22. GANの訓練における問題点として最も一般的なものは何ですか? 過学習 学習率の低下 バッチサイズの不足 モード崩壊 None 23. 次のうち、Transformerにおける残差接続(Residual Connection)の目的として正しいものはどれですか? モデルのパラメータを削減する 勾配消失問題を緩和し、深いネットワークでも学習を安定させる モデルの計算速度を向上させる 出力層の精度を向上させる None 24. アクセラレータの導入が期待される分野として最も適切なものはどれですか? テキストエディタの開発 ディープラーニングモデルのトレーニングや推論 ウェブブラウジング データベースの管理 None 25. 次のうち、「REINFORCE」アルゴリズムの特徴として最も適切なものはどれですか? Q値を用いて価値関数を近似する 経験再生を行い、効率的に学習を進める 方策勾配法を使用し、方策を直接最適化する 報酬の割引率を調整する None 26. DCGAN(Deep Convolutional GAN)の特徴は何ですか? RNNを使用して時系列データを生成する LSTMを使用して文章を生成する 畳み込みニューラルネットワークを使用して画像生成を行う バッチ正規化を行わない None 27. FPGAが特に有効となる応用分野はどれですか? 一般的なデータベース処理 ウェブページのレンダリング テキストエディタの動作 低遅延が要求されるリアルタイム処理や信号処理 None 28. アクセラレータとして最も一般的に使用されるデバイスはどれですか? GPU(Graphics Processing Unit) HDD(Hard Disk Drive) SSD(Solid State Drive) NIC(Network Interface Card) None 29. 「半教師あり学習」はどのようなデータを用いる学習方法ですか? ラベル付きデータのみを使用する ラベルなしデータのみを使用する 少量のラベル付きデータと大量のラベルなしデータを組み合わせて使用する ラベル付きデータを生成する None 30. GANにおいて、判別器の役割は何ですか? データを生成する データを圧縮する 本物のデータと偽物のデータを区別する データを分類する None 31. 「自己教師あり学習」はどのような手法ですか? 報酬を与えてエージェントに学習させる モデルが自らデータを生成する 他のモデルから知識を転移する ラベルなしデータに対して擬似ラベルを生成し、そのラベルでモデルを訓練する None 32. Dockerを使った開発環境の構築で、複数のコンテナが相互に通信するために必要な設定は何ですか? 各コンテナを独立したサーバーとして設定する すべてのコンテナを同じホストで実行する Docker Composeを使ってネットワークを構成する 各コンテナのIPアドレスを固定する None 33. L2正則化の効果として正しいものはどれですか? 小さなパラメータをゼロにする モデルの複雑さを抑える パラメータに対するペナルティを与える モデルの精度を向上させる None 34. L2正則化を強くかけすぎると、どのような問題が発生する可能性がありますか? モデルが過学習を起こす モデルが過度に単純化され、アンダーフィッティングする 学習が停止してしまう 勾配消失問題が発生する None 35. 次のうち、Grad-CAMの欠点として考えられるものはどれですか? 勾配を計算するため、計算コストが高い すべてのモデルに対して適用できない 高次元の特徴量を扱えない 予測精度が下がる None 36. LIME(Local Interpretable Model-agnostic Explanations)の主な特徴は何ですか? モデル全体の動作をシミュレーションする ランダムにデータを選んでモデルの予測を評価する 特定の予測に対して、シンプルなローカルモデルを使って説明を行う モデルのパラメータを全て可視化する None 37. 次のうち、Transformerが自己注意メカニズムを使用することの利点として最も適切なものはどれですか? 並列処理が可能で、長いシーケンスも効率的に処理できる 時系列依存を完全に無視できる 勾配消失問題を根本的に解決する 各トークンの位置情報を完全に消去する None 38. 「ドロップアウト(Dropout)」の目的は何ですか? モデルの学習速度を上げるため 過学習を防ぐため パラメータの数を減らすため モデルの複雑さを高めるため None 39. 「早期停止(Early Stopping)」の目的は何ですか? 過学習を防ぐため、パフォーマンスが最適な時点で学習を終了する 学習速度を上げる 学習率を一定に保つ パラメータの数を増やす None 40. 「メタ学習」の主な目的は何ですか? 学習アルゴリズム自体を学習し、新しいタスクに迅速に適応すること 学習済みのモデルを再利用して、新しいデータを学習すること モデルのハイパーパラメータを最適化すること データの次元を削減すること None 41. 次のうち、データ拡張を行う際に最も適切なシナリオはどれですか? 学習データが非常に多い場合 学習データが少なく、汎化性能が低い場合 モデルが過学習をしていない場合 パラメータが多い場合 None 42. エッジコンピューティングの課題として最も適切なものはどれですか? データの集中管理が難しい クラウドへの依存度が高い ネットワークの帯域幅を広げる必要がある デバイス側の計算リソースや電力制約 None 43. エッジコンピューティングにおける「リアルタイム性」を確保するために重要な要素はどれですか? データをクラウドに送り、結果を待つこと データを定期的にバックアップすること 大量のデータを一度に送信すること データをエッジデバイスで即時に処理すること None 44. 仮想環境「Anaconda」が提供する主な機能はどれですか? ウェブサイトのホスティング ゲーム開発環境の構築 クラウドサーバーの管理 データサイエンスや機械学習のためのPython環境とパッケージ管理の統合 None 45. 「SHAP(Shapley Additive Explanations)」の基本的な考え方は何ですか? モデル全体の挙動を定性的に評価する モデルの計算時間を最小化する 各特徴が予測にどれだけ貢献したかを定量的に示す モデルをランダムに評価する None 46. GANの学習で発生する「勾配消失問題」を緩和するために提案された技術はどれですか? バッチ正規化 再パラメータ化トリック Wasserstein損失関数 クロスエントロピー損失関数 None 47. 強化学習の「オフポリシー学習」とは何ですか? エージェントが同じ行動を繰り返す学習 エージェントがリアルタイムで行動を修正する学習 エージェントが現在の方策に従わずに学習すること エージェントが報酬の割引率を調整する学習 None 48. 強化学習において、報酬を割り引くために使用される値は何ですか? 学習率 割引率(Discount Factor, γ) 方策(Policy) 探索パラメータ None 49. 「アンサンブル学習」におけるブースティングの目的は何ですか? 複数の強い学習器を並列で訓練する ランダムにモデルを選択し、予測を行う データの次元を削減する 弱い学習器を連続的に訓練し、全体の予測精度を高める None 50. 「アンサンブル学習」の一種である「ブースティング」の特徴はどれですか? 各モデルを並列に訓練する 正則化を強化する バッチサイズを増加させる 各モデルを逐次的に訓練し、前のモデルのエラーを修正する None 51. GPUを使用する利点として正しいものはどれですか? 並列計算による大量のデータ処理が可能 ストレージ容量が増加する ネットワーク速度が向上する データの一貫性が保証される None 52. GPUとFPGAのハイブリッドシステムを導入することで期待できる効果として最も適切なものはどれですか? 両方の利点を活かし、高速な並列計算とタスクごとの最適化が可能になる 消費電力を大幅に削減できる ストレージ容量が増える ネットワーク速度が向上する None 53. 強化学習における「エージェント」の役割は何ですか? 環境の状態を制御する 環境からの報酬を基に行動を選択する 環境の次の状態を予測する 報酬を設定する None 54. 「経験再生(Experience Replay)」がDQNに導入される理由として正しいものはどれですか? 訓練データのバイアスを減らし、効率的な学習を行うため 訓練データを削減するため エージェントの方策を改善するため 報酬をリアルタイムで更新するため None 55. 「マルチエージェント強化学習」における課題の一つはどれですか? 他のエージェントとの相互作用により、環境が動的に変化する エージェントが報酬を得られない場合がある エージェントが単独で行動し続けること 環境が静的であること None 56. スパース学習において、L1正則化がモデルに与える影響は何ですか? パラメータの値を増加させる モデルの全てのパラメータを均等に更新する モデルの複雑さを増す 多くのパラメータをゼロに近づけ、スパース性を促進する None 57. GANにおける「ミニバッチディスクリミネーター」とは何ですか? 生成器がミニバッチ単位でデータを生成する機能 モデル全体を小さくする機能 勾配消失問題を解決するための機能 判別器がミニバッチ内の複数のサンプル間の違いを考慮して判断する機能 None 58. アンサンブル学習における「バギング(Bagging)」の主な特徴はどれですか? モデルの出力を逐次的に更新する データの順序に依存する 複数のモデルを並列に訓練し、それぞれの予測を平均化する 勾配消失問題を防ぐ None 59. 「グローバル説明」とは何を指しますか? モデル全体の振る舞いを説明すること 特定の予測結果に対する理由を説明すること モデルの訓練データの説明を行うこと モデルの訓練プロセスを可視化すること None 60. Transformerモデルにおいて、従来のRNNと異なる最大の特徴は何ですか? 並列計算が可能であること 時系列データを扱えないこと シーケンスの長さが固定であること 勾配消失問題を解決できないこと None 61. 次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか? BERTは双方向の自己注意を使用し、Transformerは単方向の自己注意を使用する BERTはエンコーダー部分のみを使用し、Transformerはエンコーダーとデコーダーの両方を使用する BERTは逐次処理を行い、Transformerは並列処理を行う BERTは画像データ専用で、Transformerはテキストデータ専用である None 62. 開発環境において、「バージョン管理システム」として最も広く使用されているツールはどれですか? Docker VirtualBox Git Jupyter Notebook None 63. リカレントニューラルネットワーク(RNN)における「Teacher Forcing」の目的は何ですか? 学習を高速化するため 勾配消失問題を防ぐため モデルが過去の正しい出力に基づいて学習するようにするため 過学習を防ぐため None 64. 深層強化学習において、連続行動空間を処理するために使用されるアルゴリズムはどれですか? DQN(Deep Q-Network) DDPG(Deep Deterministic Policy Gradient) REINFORCE Q学習 None 65. 「アクセラレータ」とは、コンピュータシステムにおいてどのような役割を持つデバイスですか? 処理速度を高速化するための専用ハードウェア データの保存容量を増やすためのデバイス インターネットの接続速度を向上させるデバイス 電力消費を増加させるデバイス None 66. 「オンライン学習」とは何ですか? 時間とともにデータを受け取り、その都度モデルを更新して学習する手法 一括してデータを学習し、最適なモデルを作成する手法 クラウドを利用してモデルを学習する手法 複数のモデルを同時に学習する手法 None 67. 分散処理システムの利点として正しいものはどれですか? 計算リソースの効率的な利用 全てのデータを一箇所に集約して管理する 一台のサーバーに負荷を集中させる ネットワーク帯域を減らす None 68. 次のうち、RNNにおいて双方向の情報フローを活用するモデルはどれですか? Bidirectional RNN LSTM GRU Simple RNN None 69. VAEにおいて、潜在空間の次元数を増やすとどのような効果がありますか? 再構成精度が向上するが、生成データの多様性が低下する 再構成精度が低下し、生成データの多様性が向上する 再構成精度と生成データの多様性が両方とも向上する モデルの計算コストが下がる None 70. Transformerの「Feedforward Neural Network」部分は何を行いますか? データを圧縮する 各トークンの自己注意後の表現をさらに変換し、次の層に渡す 各トークンの位置情報を埋め込む 勾配をクリッピングする None 71. 次のうち、Transformerモデルが機械翻訳において従来のRNNやLSTMベースのSeq2Seqモデルに勝っている理由はどれですか? より少ないパラメータで学習できる シーケンス長に依存しないため、非常に短い文でも高精度な翻訳ができる 並列計算が可能であり、大規模なデータセットを短時間で処理できる 各トークンに対して固定の重みが割り当てられている None 72. 次のうち、Dockerが提供する主な機能はどれですか? アプリケーションの実行環境をコンテナ化して、再現性の高い開発・運用環境を構築する GPUの計算速度を向上させる クラウドでデータベースを管理する ネットワーク通信を最適化する None 73. 「データシャッフル」の効果として最も適切なものはどれですか? モデルの学習を高速化する トレーニングデータの順序依存性を排除し、より安定した学習を促す モデルの複雑さを低減する バッチサイズを調整する None 74. 「Hadoop」はどのような分散処理フレームワークですか? 単一のサーバーでデータを処理するためのフレームワーク データベースの検索を高速化するフレームワーク ビッグデータを分散処理するためのオープンソースのフレームワーク 小規模なデータセットを処理するためのフレームワーク None 75. 「Scaled Dot-Product Attention」において、スコアをスケーリングする理由は何ですか? スコアが小さくなりすぎるのを防ぐため スコアが大きくなりすぎるのを防ぐため 勾配消失を防ぐため 計算コストを削減するため None 76. 次のうち、Q学習とSarsaの主な違いとして正しいものはどれですか? Q学習は方策を直接学習し、Sarsaは価値関数を学習する Q学習はオフポリシー、Sarsaはオンポリシーである Q学習は方策勾配法を使用し、Sarsaは使わない Q学習は報酬の割引率を持たず、Sarsaは持つ None 77. 次のうち、「Proximal Policy Optimization(PPO)」の特徴として最も適切なものはどれですか? 方策の更新を制御し、過度な更新を防ぐ 経験再生を使用して効率的に学習する 確率的な行動選択を行わない データのバッチサイズを動的に変更する None 78. エッジコンピューティングの利点として正しいものはどれですか? データ処理の遅延を減らす データの安全性を低下させる データの送信コストを増加させる すべてのデータをクラウドに集約する None 79. アクセラレータを使用したディープラーニングのトレーニングにおいて、重要なパラメータの一つである「バッチサイズ」が大きくなると、どのような効果が期待されますか? メモリ使用量が減少し、トレーニングが遅くなる メモリ使用量が増加し、トレーニングが高速化する メモリ使用量が増加し、トレーニングが遅くなる メモリ使用量が減少し、トレーニングが高速化する None 80. 以下のうち、L1正則化の特徴はどれですか? 大きなパラメータにペナルティを与える モデルのトレーニング速度を向上させる モデルの精度を下げる パラメータをゼロにすることでスパース性を促進する None 81. エッジコンピューティングと関連の深い技術として正しいものはどれですか? バッチ処理システム クラウドファンディング リレーショナルデータベース IoT(Internet of Things) None 82. 分散処理における「スケーラビリティ」とは何ですか? システムが負荷や規模の変化に対応して拡張できる能力 データの保存容量を増やす機能 すべてのデータをクラウドに移行する機能 ネットワーク帯域を広げる機能 None 83. 「ディープラーニングモデルのフェアネス(公平性)」を評価するための方法として最も適切なものはどれですか? モデルの計算速度を評価する データの分散を計算する パラメータの正則化を行う 特徴量ごとの予測結果の偏りを測定する None 84. 次のうち、深層学習の「解釈性」と「説明性」の違いとして最も正しい説明はどれですか? 解釈性は予測精度の向上に関わるが、説明性は関係しない 解釈性はモデルの内部構造を理解すること、説明性はモデルの予測結果の理由を明示すること 解釈性はブラックボックス性を強化すること、説明性は精度を最大化すること 解釈性はモデルのパフォーマンスを測定し、説明性はモデルを可視化すること None 85. Transformerモデルにおける「Layer Normalization」は、どの段階で適用されますか? マルチヘッド注意機構の出力と残差接続の間 フィードフォワード層の入力部分 モデル全体の最終層 ポジショナルエンコーディングの後 None 86. Pythonの「venv」ツールを使用する主な目的は何ですか? GPUの性能を向上させるため プロジェクトごとに独立した仮想環境を作成し、依存関係を管理するため クラウド上でPythonプログラムを実行するため データベースのパフォーマンスを向上させるため None 87. リカレントニューラルネットワーク(RNN)で頻繁に使用される勾配消失問題とは何ですか? パラメータが増加しすぎる問題 勾配が大きくなりすぎる問題 誤差が伝播しない問題 勾配が非常に小さくなるため、学習が進まない問題 None 88. 次のうち、Transformerが従来のSeq2Seqモデル(RNNベース)に比べて優れている点として正しいものはどれですか? 時間的依存性が強くなる 全てのシーケンスを逐次処理する モデルのサイズが小さい 長いシーケンスでも並列処理が可能である None 89. RNNの勾配爆発問題に対処するために採用される技術は次のうちどれですか? 勾配クリッピング ドロップアウト L2正則化 バッチ正規化 None 90. 分散処理システムにおける「リーダー選出アルゴリズム」として正しいものはどれですか? データの圧縮を行うアルゴリズム ノード間のデータ転送を最適化するアルゴリズム データベースのクエリを最適化するアルゴリズム PaxosやRaftなどの合意アルゴリズム None 91. 「ブラックボックス攻撃」とはどのようなものですか? モデルの内部構造を知らずに攻撃を行い、その結果を基にモデルの脆弱性を探る手法 モデルのパラメータを直接変更して攻撃する手法 モデルに対してラベル付きデータを用いて攻撃する手法 モデルの精度を最大化するための手法 None 92. 半教師あり学習で使用される「擬似ラベル」の生成方法として正しいものはどれですか? ラベルなしデータに対して既存のモデルが予測したラベルを用いる ラベル付きデータを使ってランダムにラベルを生成する ラベルなしデータをクラスタリングしてラベルを作成する ラベルなしデータを教師あり学習で学習する None 93. 「コントラスト学習(Contrastive Learning)」の目的は何ですか? データの類似度を最大化し、異なるデータ間の距離を広げる 報酬を最大化するようにエージェントに行動を学習させる ラベル付きデータから分類器を訓練する 複数のモデルを比較して最適なモデルを選択する None 94. 次のうち、GPUを利用してディープラーニングを高速化するために必要なドライバやライブラリのセットはどれですか? CUDAとcuDNN OpenGLとVulkan DirectXとOpenAL TensorFlowとPyTorch None 95. エッジコンピューティングにおけるデータの「プライバシー保護」のために考慮すべき要素は何ですか? データをクラウドで保存する データをリアルタイムで送信する データのローカル処理と暗号化 デバイスを分散させる None 96. 「教師なしクラスタリング」でよく使われる手法はどれですか? サポートベクターマシン(SVM) ディープニューラルネットワーク ロジスティック回帰 K-means法 None 97. ディープQネットワーク(DQN)の主な特徴は何ですか? エージェントの方策を直接学習する Q値の更新を行わない ランダムに行動を選択する 深層ニューラルネットワークを用いてQ値を近似する None 98. エッジコンピューティングのデバイスが持つ「電力制約」を軽減するために採用される技術はどれですか? 低消費電力のプロセッサや効率的なアルゴリズムの利用 クラウドへのデータ転送の増加 バックアップの頻度を増加させる データ処理を全てクラウドに移行する None 99. GANにおいて、生成器の目的は何ですか? 偽のデータを生成し、それを判別器に対して本物のデータのように見せかける 本物のデータを識別する データを分類する データを削減する None 100. 自己注意(Self-Attention)機構の計算において、各トークンのスコアはどのように計算されますか? 各トークンのベクトルの内積 各トークンの位置情報を参照 トークンの順序を無視してランダムに決定 トークンの勾配に基づいて計算 None Time's up