AI実装検定B級~模擬試験~ 2024年10月31日 ailearn 1. データ正規化がパターン認識モデルの精度向上に寄与する理由は何ですか? 特徴量間のスケールを揃えることで、モデルのバイアスを防ぐため データを整数に変換するため 計算コストを低減するため データの次元を削減するため None 2. 「交差検証」の目的は何ですか? データ全体のパフォーマンスを評価するため、データセットを複数の部分に分けて評価を行う手法 モデルのハイパーパラメータを調整する手法 データの次元を削減する手法 データをクラスタリングする手法 None 3. パターン認識において「クラスタリング」はどのような目的で行われますか? データのラベルを付けるため データをクラス分けするため データの次元を削減するため データを正規化するため None 4. テキストの前処理で「ストップワード」とは何を指しますか? 意味が強調される単語 検索エンジンにおける重要なキーワード 頻繁に使われるが、意味的に重要ではない単語 文書の分類基準となる単語 None 5. 「データの正規分布」とはどのような形の分布を指しますか? ランダムに分散したデータの分布 平均を中心に左右対称なベル型の分布 一方向に偏ったデータの分布 変数間の相関を表す分布 None 6. モデルの評価において「クロスバリデーション」が用いられる主な目的は何ですか? モデルの過学習を防ぎ、汎化性能を評価するため 訓練時間を短縮するため モデルの複雑さを増やすため データを削減するため None 7. k-NN法において、データの次元数が多くなると、分類精度が低下する「次元の呪い」が発生する理由は何ですか? 計算速度が遅くなるため データ間の距離が均一化されるため クラス間の分離が悪くなるため 適切なkを選びにくくなるため None 8. データの「正規化」とは何を指しますか? 欠損値を補完すること データを一定の範囲にスケーリングすること データをグループに分けること データのラベルを付けること None 9. パターン認識における「教師あり学習」の特徴として正しいものはどれですか? データにラベルがない 正しい答えをモデルに学習させる モデルは自己組織化によってパターンを見つける クラス分類を行わない None 10. モデルのハイパーパラメータを最適化するための手法の一つとして、「グリッドサーチ」の特徴は何ですか? 全てのハイパーパラメータの組み合わせを試して最適なものを見つける 一部のハイパーパラメータだけをランダムに試す ハイパーパラメータを自動的に調整する 訓練データを自動で増やす None 11. BERTとTransformerの関係性について正しい説明はどれですか? BERTはTransformerを利用したモデルである TransformerはBERTの改良版である BERTとTransformerは全く異なる技術である BERTはTransformerを不要とする新しいアーキテクチャである None 12. AIモデルの開発において「MLOps」が担う役割は何ですか? モデルのデータ収集を自動化する 機械学習の開発と運用を統合し、自動化するプロセスを提供する モデルの複雑性を減らす モデルの出力を最適化する None 13. 次のうち、「ラベル付けされたデータ」を使用するタスクはどれですか? 教師あり学習 教師なし学習 クラスタリング 次元削減 None 14. 「アンサンブル学習」の目的は何ですか? 単一モデルよりも複雑なモデルを作るため モデルのパラメータを減らすため 複数の異なるモデルを組み合わせることで、予測精度を向上させるため モデルの学習速度を速めるため None 15. 「バッチ学習」と「オンライン学習」の違いは何ですか? バッチ学習はデータ全体を一度に使用して学習し、オンライン学習はデータを逐次使用して学習する バッチ学習は並列処理を行い、オンライン学習は単一処理を行う バッチ学習はリアルタイムで学習を行い、オンライン学習は事前に学習を行う バッチ学習は大規模データセットに対応し、オンライン学習は小規模データセットに特化する None 16. データの「バイアス・バリアンストレードオフ」において、バイアスが大きい場合にモデルが示す傾向は何ですか? 過学習が起こりやすくなる 学習データに対する精度が高くなる モデルが単純化され、訓練データに過剰に適応しない テストデータに対する精度が高くなる None 17. 次のうち、ニューラルネットワークにおける「活性化関数」として適切なものはどれですか? 勾配消失問題 バッチ正規化 ReLU(Rectified Linear Unit) 正則化 None 18. 「データの前処理」として一般的に行われる操作はどれですか? 欠損値の補完 モデルの評価 ハイパーパラメータのチューニング モデルのデプロイ None 19. テキスト生成モデル「GPT」において、自己回帰型モデルとしての特徴は何ですか? テキストを固定された長さで生成する 過去の出力を次の入力として利用し、次の単語を予測する 文脈を理解せずにランダムに単語を生成する 文法ルールに基づいて完全に決定論的にテキストを生成する None 20. AI開発における「ハイパーパラメータチューニング」の方法の一つである「グリッドサーチ」の特徴はどれですか? 事前に定義した全てのハイパーパラメータの組み合わせを網羅的に試す ランダムにハイパーパラメータを調整する モデルの複雑性を減らすために使用される データの欠損値を補完するために使用される None 21. 次のうち、データの可視化に使われる手法はどれですか? 線形回帰 散布図 決定木 ニューラルネットワーク None 22. 主成分分析(PCA)を適用する前にデータの「中心化」を行う理由は何ですか? 計算コストを減らすため 分散を最大化するため データのスケールを揃えるため 次元削減の精度を上げるため None 23. 2016年に、囲碁の世界チャンピオンに勝利したAIプログラムは何ですか? AlphaGo IBM Watson ディープブルー LISP None 24. 勾配降下法の中でも「ミニバッチ勾配降下法」の利点は何ですか? 全データセットを一度に処理する 計算コストが非常に低い 全てのデータを使わずに学習を進めるため、効率的でメモリ使用量も少ない 過学習を防ぐために使われる None 25. 「バッチ正規化」の主な目的は何ですか? モデルのパラメータを自動調整するため モデルの学習時間を短縮するため モデルのハイパーパラメータを削減するため 各層の出力を正規化して、学習を安定化させるため None 26. ニューラルネットワークにおいて、重みの初期化方法が重要な理由は何ですか? 重みの初期化はモデルのサイズに直接影響を与えるため 適切な初期化が行われないと、勾配消失や発散が起こるため 重みの初期化によってモデルの複雑性が変わるため 初期化によって、訓練データの次元が変わるため None 27. 「ドロップアウト」はニューラルネットワークにおいてどのような目的で使用されますか? 訓練中に一部のニューロンをランダムに無効化することで、過学習を防ぐ モデルの学習速度を向上させるために使用される モデルのハイパーパラメータを調整するために使用される モデルの予測結果を正規化するために使用される None 28. ジェフリー・ヒントンらが提唱した「バックプロパゲーション法」がAIの学習において画期的だった理由はどれですか? 非線形問題を解決できるようにした エキスパートシステムの改良に貢献した コンピュータの処理能力を劇的に向上させた 人間の知識をデータベースに取り込む方法を確立した None 29. 「過学習」とは何ですか? モデルがデータを学習できない現象 学習データに対しては高い精度を持つが、新しいデータに対しては性能が低下する現象 学習データに対してモデルが適用できない状態 正解データがない場合に起こる現象 None 30. NLPモデルにおいて「アテンション機構」の役割は何ですか? モデルの計算負荷を軽減するため 特定の単語に対してより重要な重みを与えるため データの前処理を高速化するため 単語の順番を無視して解析するため None Time's up