E資格~模擬試験②~ 2024年12月7日 ailearn 1. 次のうち、「Proximal Policy Optimization(PPO)」の特徴として最も適切なものはどれですか? 方策の更新を制御し、過度な更新を防ぐ 経験再生を使用して効率的に学習する 確率的な行動選択を行わない データのバッチサイズを動的に変更する None 2. GPUと比べたFPGAの利点として正しいものはどれですか? 固定されたアーキテクチャを持ち、高速な並列計算が得意である 主にグラフィックス処理に使用される アーキテクチャを柔軟に変更でき、特定の用途に最適化できる 大規模なディープラーニングに特化している None 3. 次のうち、AIの推論処理に特化したアクセラレータはどれですか? SSD TPU HDD NIC None 4. 「ベイズ最適化」がモデルに適用される主な理由は何ですか? データの次元を削減するため ハイパーパラメータの調整を効率的に行うため モデルのパラメータをランダムに設定するため モデルの精度を下げるため None 5. LIME(Local Interpretable Model-agnostic Explanations)の主な特徴は何ですか? モデル全体の動作をシミュレーションする ランダムにデータを選んでモデルの予測を評価する 特定の予測に対して、シンプルなローカルモデルを使って説明を行う モデルのパラメータを全て可視化する None 6. ディープラーニング環境を構築する際に一般的に使用されるプログラミング言語はどれですか? C++ Python Java Ruby None 7. 次のうち、Transformerにおける「マスク付き注意機構(Masked Attention)」の役割として正しいものはどれですか? 現在のトークン以降の情報を参照できないようにする 出力の一部を無視する モデルの計算速度を向上させる モデルの重みを固定する None 8. 次のうち、Wasserstein GAN(WGAN)の目的は何ですか? GANのモード崩壊問題を完全に解決する GANの学習の安定性を向上させ、生成データの質を高める GANのトレーニング時間を短縮する VAEと統合するための手法を提供する None 9. 次のうち、深層強化学習で多用される「ソフトアクタークリティック(SAC)」の特徴として正しいものはどれですか? 方策を持たない強化学習手法である 最大エントロピー原理に基づき、行動の多様性を保持しつつ学習する 確定論的な方策を使用して学習する 報酬を一定に保ちながら学習を行う None 10. エッジコンピューティングにおける「フォグコンピューティング」との違いとして正しいものはどれですか? フォグコンピューティングはエッジデバイスよりも上位のネットワーク層で処理を行う フォグコンピューティングはクラウドのみで処理を行う フォグコンピューティングはエッジデバイスを使用しない フォグコンピューティングはすべての処理をローカルで完結する None 11. 「コントラスト学習(Contrastive Learning)」の目的は何ですか? データの類似度を最大化し、異なるデータ間の距離を広げる 報酬を最大化するようにエージェントに行動を学習させる ラベル付きデータから分類器を訓練する 複数のモデルを比較して最適なモデルを選択する None 12. 次の中で、GRUとLSTMの主な違いとして正しいものはどれですか? GRUはLSTMに比べてゲートの数が多い GRUは計算コストがLSTMよりも高い GRUは勾配消失問題に弱い GRUは出力ゲートを持たない None 13. RNNの勾配爆発問題に対処するために採用される技術は次のうちどれですか? 勾配クリッピング ドロップアウト L2正則化 バッチ正規化 None 14. 「MapReduce」の「Reduce」フェーズの役割は何ですか? Mapフェーズで生成されたキーと値のペアを集約し、最終結果を生成する 入力データを分割し、キーと値のペアを生成する データをクラウドに送信する データを保存する None 15. 次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか? BERTは双方向の自己注意を使用し、Transformerは単方向の自己注意を使用する BERTはエンコーダー部分のみを使用し、Transformerはエンコーダーとデコーダーの両方を使用する BERTは逐次処理を行い、Transformerは並列処理を行う BERTは画像データ専用で、Transformerはテキストデータ専用である None 16. ディープQネットワーク(DQN)の主な特徴は何ですか? エージェントの方策を直接学習する Q値の更新を行わない ランダムに行動を選択する 深層ニューラルネットワークを用いてQ値を近似する None 17. 次のうち、Transformerにおける残差接続(Residual Connection)の目的として正しいものはどれですか? モデルのパラメータを削減する 勾配消失問題を緩和し、深いネットワークでも学習を安定させる モデルの計算速度を向上させる 出力層の精度を向上させる None 18. ディープラーニングの推論において、TPUがGPUに対して有利となる理由として最も適切なものはどれですか? TPUはグラフィックス処理が得意であるため TPUはプログラミングが容易であるため TPUはディープラーニング専用のハードウェアとして設計されており、推論に特化して最適化されているため TPUは消費電力が高いため None 19. 「局所的解釈可能性」を持つモデルの例として正しいものはどれですか? ニューラルネットワーク 決定木 ランダムフォレスト サポートベクターマシン None 20. バッチ正規化(Batch Normalization)の効果として最も適切なものはどれですか? モデルのトレーニングを安定化させる 勾配消失問題を完全に防ぐ 過学習を防ぐために学習データを削減する 学習率を低下させる None 21. Transformerにおける「Encoder-Decoder構造」の役割は何ですか? データの圧縮と復元 入力データと出力データの間でシーケンスを学習する 勾配の計算を高速化する バッチ処理を効率化する None 22. VAEにおける「エビデンス下界(ELBO)」の役割は何ですか? モデルのパラメータ数を増やす モデルの学習を安定化させるための目的関数 データを圧縮するための手法 モデルの精度を評価するための指標 None 23. 強化学習における「方策(Policy)」とは何を指しますか? エージェントが次の状態を予測するためのモデル エージェントが各状態でどの行動を取るかを決定するルール 環境から得られる報酬の計算方法 エージェントのQ値を更新するアルゴリズム None 24. 次のうち、強化学習において「多腕バンディット問題」が示す課題として最も適切なものはどれですか? 状態空間の次元削減に関する課題 環境の報酬構造を推定する課題 行動の決定に時間がかかる問題 探索と活用のバランスを取る課題 None 25. 次のうち、RNNの代表的なアプリケーションはどれですか? 画像分類 音声認識 コンピュータビジョン 強化学習 None 26. 分散処理システムにおける「リーダー選出アルゴリズム」として正しいものはどれですか? データの圧縮を行うアルゴリズム ノード間のデータ転送を最適化するアルゴリズム データベースのクエリを最適化するアルゴリズム PaxosやRaftなどの合意アルゴリズム None 27. Transformerの「Feedforward Neural Network」部分は何を行いますか? データを圧縮する 各トークンの自己注意後の表現をさらに変換し、次の層に渡す 各トークンの位置情報を埋め込む 勾配をクリッピングする None 28. リカレントニューラルネットワーク(RNN)で頻繁に使用される勾配消失問題とは何ですか? パラメータが増加しすぎる問題 勾配が大きくなりすぎる問題 誤差が伝播しない問題 勾配が非常に小さくなるため、学習が進まない問題 None 29. 次のうち、VAEとGANの大きな違いとして最も適切なものはどれですか? VAEは教師なし学習、GANは教師あり学習である VAEは潜在空間に規則性を持たせ、GANは敵対的な学習を行う VAEは再構成誤差を最小化し、GANは分類精度を最大化する VAEは畳み込み層を使わず、GANは畳み込み層を使う None 30. 「転移学習」の目的は何ですか? ラベル付きデータを使って新しいモデルを訓練すること あるタスクで学習した知識を別のタスクに適用すること データの前処理を効率化すること モデルのパラメータを削減すること None 31. 「Terraform」を使用する主な目的は何ですか? インフラをコードとして管理し、クラウドリソースを自動的に構築・管理するため ディープラーニングモデルをトレーニングするため ネットワーク帯域を最適化するため データベースのパフォーマンスを改善するため None 32. 次のうち、Transformerが従来のSeq2Seqモデル(RNNベース)に比べて優れている点として正しいものはどれですか? 時間的依存性が強くなる 全てのシーケンスを逐次処理する モデルのサイズが小さい 長いシーケンスでも並列処理が可能である None 33. 「MapReduce」における「Map」フェーズの役割は何ですか? 入力データを分割し、キーと値のペアを生成する データを一元化し、集約結果を生成する 入力データをそのまま出力する データをクラウドに送信する None 34. 次のRNNモデルのうち、長期依存の問題を解決するために設計されたモデルはどれですか? LSTM フィードフォワードネットワーク CNN DNN None 35. 次のうち、「ローカル説明」とは何を指しますか? モデル全体の振る舞いを説明すること 特定の予測結果に対してその理由を説明すること モデルの訓練データの説明を行うこと モデルの訓練プロセス全体を説明すること None 36. エッジコンピューティングが通信コスト削減に寄与する理由は何ですか? すべてのデータをクラウドに送信するから クラウド側で計算を行い、デバイスに結果を返すから データをエッジデバイスで処理し、クラウドへの送信データ量を減らすから 大量のデータを一度に送信するから None 37. 次のうち、エッジコンピューティングにおいて「コンテナ技術」が重要視される理由として正しいものはどれですか? クラウド上でデータを保存するためのセキュリティを強化する 軽量な仮想化環境を提供し、エッジデバイスでの効率的なデプロイを可能にする デバイスの寿命を延ばす 通信帯域を広げる None 38. Transformerの各層において、正規化(Normalization)はどのような役割を果たしますか? 計算コストを削減する 出力を安定化させ、学習を効率化する モデルの深さを減らす 残差接続を削除する None 39. 次のうち、アクセラレータを使用することで予想される課題として最も適切なものはどれですか? ストレージ容量が増える 専用のプログラミングスキルが必要になる場合がある ネットワーク速度が低下する 汎用性が高くなりすぎる None 40. 強化学習における「エージェント」の役割は何ですか? 環境の状態を制御する 環境からの報酬を基に行動を選択する 環境の次の状態を予測する 報酬を設定する None 41. 「アンサンブル学習」の一種である「ブースティング」の特徴はどれですか? 各モデルを並列に訓練する 正則化を強化する バッチサイズを増加させる 各モデルを逐次的に訓練し、前のモデルのエラーを修正する None 42. アクセラレータの導入による計算コスト削減の方法として適切なものはどれですか? ストレージ容量を増加させ、計算時間を短縮する ネットワーク帯域を広げ、データ転送を高速化する CPUのみで処理を行う 特定のタスクに最適化されたハードウェアを使用し、計算効率を向上させる None 43. 次のうち、RNNの一種ではないものはどれですか? LSTM GRU Transformer Bidirectional RNN None 44. 「アンサンブル学習」におけるブースティングの目的は何ですか? 複数の強い学習器を並列で訓練する ランダムにモデルを選択し、予測を行う データの次元を削減する 弱い学習器を連続的に訓練し、全体の予測精度を高める None 45. 次のうち、Flow-based Modelの特徴として正しいものはどれですか? 生成したデータの確率密度を直接計算できる モデルの生成精度が低い 潜在変数を使用しない 判別器を必要とする None 46. 「早期停止(Early Stopping)」の目的は何ですか? 過学習を防ぐため、パフォーマンスが最適な時点で学習を終了する 学習速度を上げる 学習率を一定に保つ パラメータの数を増やす None 47. 以下のうち、L1正則化の特徴はどれですか? 大きなパラメータにペナルティを与える モデルのトレーニング速度を向上させる モデルの精度を下げる パラメータをゼロにすることでスパース性を促進する None 48. 開発環境において、「バージョン管理システム」として最も広く使用されているツールはどれですか? Docker VirtualBox Git Jupyter Notebook None 49. エッジコンピューティングにおけるセキュリティ上の課題として正しいものはどれですか? デバイスが分散しているため、物理的なセキュリティが難しい データの一元管理が可能である ネットワーク負荷が軽減される クラウド上で全てのデータを保管する None 50. Gated Recurrent Unit(GRU)の特徴として正しいものはどれですか? 忘却ゲートがない 出力ゲートがない 計算がLSTMより複雑 勾配消失問題を解決しにくい None 51. 分散処理における「キャッシュの一貫性」を保つために使用される技術はどれですか? キャッシュコヒーレンスプロトコル 二相コミットプロトコル リーダー選出アルゴリズム データローカリティ None 52. 次のうち、Seq2SeqモデルのDecoder部分で使われる典型的なRNNアーキテクチャはどれですか? CNN LSTM MLP Transformer None 53. アクセラレータとして最も一般的に使用されるデバイスはどれですか? GPU(Graphics Processing Unit) HDD(Hard Disk Drive) SSD(Solid State Drive) NIC(Network Interface Card) None 54. 「反事実的説明(Counterfactual Explanation)」の主な目的は何ですか? 予測結果が変わるために、どの特徴量をどの程度変えるべきかを示す モデルのパラメータを変更する手法を提示する ランダムに特徴量を入れ替えて結果を評価する 予測結果を変更することなくデータを拡張する None 55. 「深層ニューラルネットワークの説明性」を高めるために使用される手法の一つである「勾配ベースの手法」とは何ですか? データをクラスターに分けてその振る舞いを分析する手法 データをランダムに選んでモデルを評価する手法 モデルのパラメータを全て可視化する手法 出力に対する入力の寄与を勾配を用いて計算する手法 None 56. 生成モデルとは何を行うモデルですか? データの分類を行うモデル データの生成を行うモデル データの回帰を行うモデル データの削減を行うモデル None 57. 次のうち、GPUとFPGAの選択を決定する上で最も重要な要素は何ですか? 計算の性質や目的に応じた適切なハードウェアの選択 ストレージの容量 ネットワーク帯域幅 デバイスの色 None 58. Transformerの構成要素の一つである「Multi-Head Attention」の目的は何ですか? 単一の注意機構よりも複雑な関係を捉えるため 計算リソースを削減するため モデルの層を深くするため 勾配消失問題を回避するため None 59. FPGAの動作効率を最大化するために重要な要素は何ですか? ストレージの最大化 ネットワーク速度の向上 ハードウェア構成の最適化と特定タスクに合わせたプログラミング ディープラーニングのトレーニング時間の短縮 None 60. 「マルチエージェント強化学習」における課題の一つはどれですか? 他のエージェントとの相互作用により、環境が動的に変化する エージェントが報酬を得られない場合がある エージェントが単独で行動し続けること 環境が静的であること None 61. 深層強化学習において、エージェントの行動の説明性を向上させるために使われる技術の一つは何ですか? 状態価値関数の可視化 勾配ブースティング サポートベクターマシンの適用 データの正規化 None 62. 「正則化(Regularization)」の目的として正しいものはどれですか? モデルのパラメータ数を増やす モデルの過学習を防ぐ 学習率を高める 勾配消失問題を解決する None 63. 分散処理システムの利点として正しいものはどれですか? 計算リソースの効率的な利用 全てのデータを一箇所に集約して管理する 一台のサーバーに負荷を集中させる ネットワーク帯域を減らす None 64. 複数のプロジェクトで異なるバージョンのPythonやライブラリを利用する場合、どのような環境構築手法が推奨されますか? すべてのプロジェクトで同じ環境を使い回す システム全体にすべてのライブラリをインストールする 各プロジェクトで同じライブラリのバージョンを強制的に使用する 各プロジェクトごとに仮想環境を作成し、依存関係を分離する None 65. 分散処理システムでの「レプリケーション」の目的は何ですか? データの可用性と耐障害性を高めるために、データを複数の場所にコピーする データを削除してシステムの負荷を軽減する データを一箇所に集約して処理する データをクラウドに送信する None 66. Transformerにおける「ポジショナルエンコーディング」の役割は何ですか? シーケンス全体を圧縮する 時系列データの位置情報を反映させる 勾配消失を防ぐ モデルの出力を正規化する None 67. 分散処理における「スケーラビリティ」とは何ですか? システムが負荷や規模の変化に対応して拡張できる能力 データの保存容量を増やす機能 すべてのデータをクラウドに移行する機能 ネットワーク帯域を広げる機能 None 68. エッジコンピューティングが特に有効となるケースはどれですか? クラウドの処理能力が高い場合 データ転送量を減らしたい場合 大量のデータを一括で処理する場合 データのバックアップを行う場合 None 69. RNNを使用したシーケンス生成モデルで、次のタイムステップの予測を生成する際、予測結果が繰り返し使用されることによる誤差の累積を防ぐために使われる手法はどれですか? バッチ正規化 ドロップアウト 学習率減衰 スケジュールサンプリング None 70. ディープラーニング環境をGPU対応にするために必要な操作として最も適切なものはどれですか? CPUのみを使用するように環境を設定する GPUを無効化してトレーニングを行う 特定のライブラリをインストールせずにトレーニングを行う GPU対応のディープラーニングライブラリとCUDAおよびcuDNNのインストール None 71. エッジコンピューティングにおけるデータの「プライバシー保護」のために考慮すべき要素は何ですか? データをクラウドで保存する データをリアルタイムで送信する データのローカル処理と暗号化 デバイスを分散させる None 72. 「説明可能AI(Explainable AI, XAI)」の主な目的は何ですか? モデルがなぜ特定の予測を行ったのかを理解しやすくすること モデルの学習速度を向上させること モデルの訓練データ量を減らすこと モデルの予測精度を下げること None 73. GPUを使用する利点として正しいものはどれですか? 並列計算による大量のデータ処理が可能 ストレージ容量が増加する ネットワーク速度が向上する データの一貫性が保証される None 74. 「分散トランザクション処理」における「二相コミットプロトコル(2PC)」の目的は何ですか? データの転送速度を向上させる データを圧縮するためのプロトコル ノード間でデータを共有するプロトコル 分散システムにおけるデータの一貫性を確保する None 75. 次のうち、GPUアクセラレータがデータセンターで広く使用される理由として正しいものはどれですか? 高い並列処理能力を持ち、ビッグデータやAI関連の処理を効率的に行えるため 消費電力が少なく、コストが安いため ストレージ容量が多いため ネットワーク管理に特化しているため None 76. 次のうち、Transformerモデルが機械翻訳において従来のRNNやLSTMベースのSeq2Seqモデルに勝っている理由はどれですか? より少ないパラメータで学習できる シーケンス長に依存しないため、非常に短い文でも高精度な翻訳ができる 並列計算が可能であり、大規模なデータセットを短時間で処理できる 各トークンに対して固定の重みが割り当てられている None 77. 「教師なし学習」でよく使用される次元削減手法はどれですか? 主成分分析(PCA) K-近傍法 逆強化学習 サポートベクターマシン(SVM) None 78. 仮想環境「Anaconda」が提供する主な機能はどれですか? ウェブサイトのホスティング ゲーム開発環境の構築 クラウドサーバーの管理 データサイエンスや機械学習のためのPython環境とパッケージ管理の統合 None 79. 分散処理システムにおける「分散キュー」の役割として正しいものはどれですか? データをクラウドに保存する 複数のプロセス間でタスクを管理し、順序を保つ 処理タスクを一台のサーバーで管理する データのバックアップを行う None 80. Transformerのマルチヘッド注意機構では、異なる「ヘッド」を使用する利点は何ですか? モデルのパラメータ数を減少させるため 異なる部分の情報に注意を向け、より多様な特徴を学習するため モデルの計算速度を向上させるため 出力層での勾配を安定させるため None 81. 次の文脈に最も適したアーキテクチャを選んでください:「非常に長いシーケンスを処理し、長期的な依存関係をより効率的にモデル化できる手法」 単純RNN GRU Transformer LSTM None 82. 「データシャッフル」の効果として最も適切なものはどれですか? モデルの学習を高速化する トレーニングデータの順序依存性を排除し、より安定した学習を促す モデルの複雑さを低減する バッチサイズを調整する None 83. 仮想環境「Vagrant」を使用する場合、主にどのようなシナリオで役立つか? 一貫性のある仮想マシン環境を簡単に構築し、チーム間で共有する場合 クラウドでのデータベース運用を最適化する場合 GPUを利用して大規模な計算を行う場合 ウェブサイトをホスティングする場合 None 84. 「メタ学習」の主な目的は何ですか? 学習アルゴリズム自体を学習し、新しいタスクに迅速に適応すること 学習済みのモデルを再利用して、新しいデータを学習すること モデルのハイパーパラメータを最適化すること データの次元を削減すること None 85. エッジコンピューティングが求められるシナリオとして適切なものはどれですか? 大量のデータをバックアップするためのリモートサーバー 通常のデータストレージ用途のパーソナルクラウド 高速なリアルタイム処理が必要な自動運転システム 大規模なバッチ処理が必要な分析システム None 86. エッジコンピューティングの利点として正しいものはどれですか? データ処理の遅延を減らす データの安全性を低下させる データの送信コストを増加させる すべてのデータをクラウドに集約する None 87. Bidirectional LSTMのメリットとして、最も適切なものはどれですか? 計算速度が速い 双方向から情報を処理するため、シーケンス全体の文脈を理解できる メモリ消費が少ない 勾配消失問題が完全に解決される None 88. バッチ正規化を使用することで、次のどの効果が得られますか? モデルの収束速度が速くなる トレーニングデータの必要量が増加する 正則化の効果が薄れる 勾配爆発問題が発生しやすくなる None 89. 「説明可能AI」の導入が特に重要視されるケースはどれですか? ゲームAIやチャットボット 音声認識システム 画像処理タスク 医療診断システムや金融スコアリングシステムなどの分野 None 90. 強化学習の「オフポリシー学習」とは何ですか? エージェントが同じ行動を繰り返す学習 エージェントがリアルタイムで行動を修正する学習 エージェントが現在の方策に従わずに学習すること エージェントが報酬の割引率を調整する学習 None 91. 分散処理システムにおける「データパーティショニング」の目的は何ですか? データを一箇所に集約して保存する データを圧縮して保存する データの一貫性を保証する データを複数のノードに分割して保存し、負荷を分散する None 92. Transformerモデルにおける「Layer Normalization」は、どの段階で適用されますか? マルチヘッド注意機構の出力と残差接続の間 フィードフォワード層の入力部分 モデル全体の最終層 ポジショナルエンコーディングの後 None 93. 次のうち、Transformerが自己注意メカニズムを使用することの利点として最も適切なものはどれですか? 並列処理が可能で、長いシーケンスも効率的に処理できる 時系列依存を完全に無視できる 勾配消失問題を根本的に解決する 各トークンの位置情報を完全に消去する None 94. 「スパース学習」とは何を目的とする手法ですか? モデルの精度を向上させるためにパラメータ数を増やす モデルのパラメータの多くを0にすることで、計算コストを削減する ラベルなしデータを用いて特徴を学習する 報酬を用いてモデルを訓練する None 95. 「可視化に基づく説明性」を高めるために、畳み込みニューラルネットワークで使われる技術はどれですか? パラメータチューニング フィルター可視化 バッチ正規化 データ拡張 None 96. Dockerを使った開発環境の構築で、複数のコンテナが相互に通信するために必要な設定は何ですか? 各コンテナを独立したサーバーとして設定する すべてのコンテナを同じホストで実行する Docker Composeを使ってネットワークを構成する 各コンテナのIPアドレスを固定する None 97. アクセラレータの導入が期待される分野として最も適切なものはどれですか? テキストエディタの開発 ディープラーニングモデルのトレーニングや推論 ウェブブラウジング データベースの管理 None 98. エッジコンピューティングのデバイスが持つ「電力制約」を軽減するために採用される技術はどれですか? 低消費電力のプロセッサや効率的なアルゴリズムの利用 クラウドへのデータ転送の増加 バックアップの頻度を増加させる データ処理を全てクラウドに移行する None 99. 次のうち、データ拡張を行う際に最も適切なシナリオはどれですか? 学習データが非常に多い場合 学習データが少なく、汎化性能が低い場合 モデルが過学習をしていない場合 パラメータが多い場合 None 100. RNNで使用される「状態ベクトル」は、どのような役割を果たしますか? パラメータ更新を行う 各タイムステップでの入力データを保持する 各タイムステップでの出力を計算するために使用される 現在の状態を次のタイムステップに伝える None Time's up