AI実装検定B級~模擬試験~ 2024年10月31日 ailearn 1. 「バッチ学習」と「オンライン学習」の違いは何ですか? バッチ学習はデータ全体を一度に使用して学習し、オンライン学習はデータを逐次使用して学習する バッチ学習は並列処理を行い、オンライン学習は単一処理を行う バッチ学習はリアルタイムで学習を行い、オンライン学習は事前に学習を行う バッチ学習は大規模データセットに対応し、オンライン学習は小規模データセットに特化する None 2. モデルの評価指標の一つである「精度(Accuracy)」は、次のどのように計算されますか? 全てのデータに対する正解率 誤分類の割合 予測結果の分散 訓練データの大きさ None 3. 教師あり学習において、「正解データ」を持たない学習方法は何ですか? 教師なし学習 強化学習 ディープラーニング ハイパーパラメータ調整 None 4. 「アンサンブル学習」の利点は何ですか? 単一のモデルよりも計算コストを削減できる モデルのパラメータ調整が不要である 訓練データを減らして学習できる 複数の異なるモデルを組み合わせることで、予測精度を向上させる None 5. 「正則化」がパターン認識において果たす主な役割は何ですか? データの次元を削減する モデルの過学習を防ぐ 特徴量を無視する 学習速度を向上させる None 6. 1980年代にAI研究が停滞した要因として正しいものはどれですか? 計算機の性能の限界 エキスパートシステムの失敗 AI法の制定 ディープラーニングの台頭 None 7. モデルの評価において「クロスバリデーション」が用いられる主な目的は何ですか? モデルの過学習を防ぎ、汎化性能を評価するため 訓練時間を短縮するため モデルの複雑さを増やすため データを削減するため None 8. 自然言語処理において、ニューラルネットワークを使ってテキストを分類するために広く使用されるモデルはどれですか? CNN(畳み込みニューラルネットワーク) RNN(再帰型ニューラルネットワーク) LSTM(長短期記憶) GAN(生成的敵対ネットワーク) None 9. モデルのハイパーパラメータを最適化するための手法の一つとして、「グリッドサーチ」の特徴は何ですか? 全てのハイパーパラメータの組み合わせを試して最適なものを見つける 一部のハイパーパラメータだけをランダムに試す ハイパーパラメータを自動的に調整する 訓練データを自動で増やす None 10. 主成分分析(PCA)を用いた次元削減において、どのようにして「情報の損失」を最小限に抑えることができますか? データをすべて削除する 主成分のうち、分散が大きいものから順に選択する 主成分のうち、分散が小さいものから順に選択する データを標準化せずに使用する None 11. AIモデルの開発と運用において「CI/CDパイプライン」の目的は何ですか? モデルの予測精度を向上させるため モデルの学習を高速化するため 継続的なインテグレーションとデプロイを自動化し、モデルを迅速に展開・更新するため モデルの複雑性を減らすため None 12. 次のうち、データの可視化に使われる手法はどれですか? 線形回帰 散布図 決定木 ニューラルネットワーク None 13. 次のうち、「ラベル付けされたデータ」を使用するタスクはどれですか? 教師あり学習 教師なし学習 クラスタリング 次元削減 None 14. 「ドロップアウト」はニューラルネットワークにおいてどのような目的で使用されますか? 訓練中に一部のニューロンをランダムに無効化することで、過学習を防ぐ モデルの学習速度を向上させるために使用される モデルのハイパーパラメータを調整するために使用される モデルの予測結果を正規化するために使用される None 15. LSTM(長短期記憶)モデルの最大の利点は何ですか? 長期的な文脈情報を保持できる 訓練データを少なくする 短期的な依存関係に強い 訓練が非常に早い None 16. 畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか? 過学習のリスクが減る モデルが非線形性を捉えにくくなる 学習に必要な計算量が増える 特徴マップの解像度が上がる None 17. 主成分分析(PCA)を適用する前にデータの「中心化」を行う理由は何ですか? 計算コストを減らすため 分散を最大化するため データのスケールを揃えるため 次元削減の精度を上げるため None 18. ニューラルネットワークにおいて「活性化関数」が持つ主な役割は何ですか? データを正規化する モデルの誤差を計算する 各ニューロンの出力を制限し、非線形性を導入する 各層の重みを更新する None 19. 「ハイパーパラメータ」とは何ですか? モデルの学習プロセスで手動で設定されるパラメータ モデルの出力に直接影響を与えるパラメータ データの前処理に使われるパラメータ 推論時に動的に決定されるパラメータ None 20. データの分布に偏りがある場合、モデルの精度にどのような影響がありますか? 全てのクラスに対して均等に精度が向上する 偏りのあるクラスに対して過剰に適応し、他のクラスでの予測精度が低下する モデルが過学習を起こす モデルが学習できなくなる None 21. ニューラルネットワークにおいて、勾配降下法の目的は何ですか? モデルの複雑性を増やす 誤差関数を最小化する 重みの初期値を決定する データを前処理する None 22. 機械学習における「クロスバリデーション」の目的は何ですか? モデルの過学習を防ぐため モデルのサイズを増やすため 学習時間を短縮するため データセットの欠損値を補完するため None 23. k近傍法(k-NN)の分類アルゴリズムにおいて、kの値が小さすぎるとどのような問題が発生しますか? オーバーフィッティング アンダーフィッティング データの次元が増える ノイズが減る None 24. 「ハイパーパラメータ」とは何ですか? モデルが自動で調整するパラメータ 学習の前に設定されるモデルのパラメータ 学習データに基づいて計算されるパラメータ モデルの出力結果を評価するための指標 None 25. 次のタスクのうち、「分類問題」に該当するものはどれですか? 家の価格を予測する スパムメールを判定する 顧客のクラスターを見つける 画像からの次元削減を行う None 26. 次のうち、ニューラルネットワークにおける「活性化関数」として適切なものはどれですか? 勾配消失問題 バッチ正規化 ReLU(Rectified Linear Unit) 正則化 None 27. 「過学習」とは何ですか? モデルがデータを学習できない現象 学習データに対しては高い精度を持つが、新しいデータに対しては性能が低下する現象 学習データに対してモデルが適用できない状態 正解データがない場合に起こる現象 None 28. パターン認識の主要なステップに含まれないものは次のうちどれですか? データ収集 特徴抽出 クラス分類 ラベル付け None 29. テキストの前処理で「ストップワード」とは何を指しますか? 意味が強調される単語 検索エンジンにおける重要なキーワード 頻繁に使われるが、意味的に重要ではない単語 文書の分類基準となる単語 None 30. モデルの評価指標の一つである「AUC(Area Under Curve)」は、何を評価するために使用されますか? モデルの学習速度 精度と再現率のバランス ROC曲線の下の面積を評価し、モデルの分類性能を測る 訓練データのサイズ None Time's up