AI実装検定B級~模擬試験①~ 2024年12月8日 ailearn 1. データの「バイアス・バリアンストレードオフ」において、バイアスが大きい場合にモデルが示す傾向は何ですか? 過学習が起こりやすくなる 学習データに対する精度が高くなる モデルが単純化され、訓練データに過剰に適応しない テストデータに対する精度が高くなる None 2. 次のタスクのうち、「分類問題」に該当するものはどれですか? 家の価格を予測する スパムメールを判定する 顧客のクラスターを見つける 画像からの次元削減を行う None 3. ニューラルネットワークの「層の深さ」が増えると、どのような影響がある可能性が高いですか? モデルがより複雑なパターンを学習できるが、勾配消失問題が発生しやすくなる モデルの計算時間が減少する モデルの汎化性能が常に向上する 学習が必要なくなる None 4. 1960年代に開発された最初のAI言語「LISP」を開発したのは誰ですか? アラン・チューリング クロード・シャノン ジョン・マッカーシー ハーバート・サイモン None 5. 「バッチ学習」と「オンライン学習」の違いは何ですか? バッチ学習はデータ全体を一度に使用して学習し、オンライン学習はデータを逐次使用して学習する バッチ学習は並列処理を行い、オンライン学習は単一処理を行う バッチ学習はリアルタイムで学習を行い、オンライン学習は事前に学習を行う バッチ学習は大規模データセットに対応し、オンライン学習は小規模データセットに特化する None 6. 特徴量選択の目的として最も適切なものは何ですか? モデルのサイズを増加させる データの欠損を補完する データのサイズを増やす モデルの性能向上と計算コストの削減 None 7. 1980年代にAI研究が停滞した要因として正しいものはどれですか? 計算機の性能の限界 エキスパートシステムの失敗 AI法の制定 ディープラーニングの台頭 None 8. 時系列データに対するモデルを作成する際に考慮すべき特徴として最も重要なものは何ですか? データのスケール データのラベルの有無 データの時間的な依存関係 データの次元数 None 9. データの「正規化」とは何を指しますか? 欠損値を補完すること データを一定の範囲にスケーリングすること データをグループに分けること データのラベルを付けること None 10. 次のうち、「ラベル付けされたデータ」を使用するタスクはどれですか? 教師あり学習 教師なし学習 クラスタリング 次元削減 None 11. ニューラルネットワークの「学習率」を適切に設定しないと起こりうる問題はどれですか? 学習率が高すぎると最適解に到達できない、または振動する可能性がある 学習率が高すぎると過学習が発生する 学習率が低すぎるとモデルが過学習する 学習率が低すぎるとデータが不足する None 12. 1956年に開催された「ダートマス会議」は、AIの歴史において何を示唆した出来事でしたか? AIの正式な誕生 初のAI論文の発表 初のAI企業の設立 人工知能の定義が初めて確立された None 13. ディープラーニングの基礎となる「バックプロパゲーション法」が最初に提案されたのはどの年代ですか? 1950年代 1960年代 1980年代 2000年代 None 14. k-NN法において、データの次元数が多くなると、分類精度が低下する「次元の呪い」が発生する理由は何ですか? 計算速度が遅くなるため データ間の距離が均一化されるため クラス間の分離が悪くなるため 適切なkを選びにくくなるため None 15. 次のうち、ディープラーニングモデルの「重み」を最適化するために使用されるアルゴリズムはどれですか? クラスタリング 勾配降下法 主成分分析 K-means None 16. 次のうち、「時系列データ」として最も適切な例はどれですか? 写真の画像データ 人口分布データ 株価の推移 顧客の購買履歴データ None 17. 次のうち、回帰問題に適しているアルゴリズムはどれですか? サポートベクターマシン 線形回帰 k-近傍法 クラスタリング None 18. 次のうち、ニューラルネットワークにおける「活性化関数」として適切なものはどれですか? 勾配消失問題 バッチ正規化 ReLU(Rectified Linear Unit) 正則化 None 19. 「データの前処理」として一般的に行われる操作はどれですか? 欠損値の補完 モデルの評価 ハイパーパラメータのチューニング モデルのデプロイ None 20. 「交差検証」の目的は何ですか? データ全体のパフォーマンスを評価するため、データセットを複数の部分に分けて評価を行う手法 モデルのハイパーパラメータを調整する手法 データの次元を削減する手法 データをクラスタリングする手法 None 21. 「ドロップアウト」はニューラルネットワークにおいてどのような役割を果たしますか? 勾配消失問題を解決するための技術 データを正規化する技術 モデルの推論を高速化する技術 過学習を防ぐために、ランダムにニューロンを無効化する技術 None 22. 「データの正規分布」とはどのような形の分布を指しますか? ランダムに分散したデータの分布 平均を中心に左右対称なベル型の分布 一方向に偏ったデータの分布 変数間の相関を表す分布 None 23. 主成分分析(PCA)を適用する前にデータの「中心化」を行う理由は何ですか? 計算コストを減らすため 分散を最大化するため データのスケールを揃えるため 次元削減の精度を上げるため None 24. サポートベクターマシン(SVM)における「カーネル関数」の役割は何ですか? 訓練データのノイズを除去する 特徴ベクトルをより高次元の空間にマッピングする 決定境界を線形化する データの正規化を行う None 25. パターン認識における「アンサンブル学習」の主な利点は何ですか? 計算時間が大幅に短縮される 過学習のリスクがなくなる 複数のモデルを組み合わせることで、予測精度が向上する 単一のモデルを使用するよりもデータの処理が簡単になる None 26. 「AIの冬」とは何を指していますか? AIが初めて誕生した時期 AI研究が一時的に停滞した時期 AIが商業的に成功した時期 人工知能が誤解された時期 None 27. 異常検知に使用される代表的なアルゴリズムはどれですか? 主成分分析(PCA) 線形回帰 k-近傍法(k-NN) ニューラルネットワーク None 28. 「正則化」がパターン認識において果たす主な役割は何ですか? データの次元を削減する モデルの過学習を防ぐ 特徴量を無視する 学習速度を向上させる None 29. データの分布に偏りがある場合、モデルの精度にどのような影響がありますか? 全てのクラスに対して均等に精度が向上する 偏りのあるクラスに対して過剰に適応し、他のクラスでの予測精度が低下する モデルが過学習を起こす モデルが学習できなくなる None 30. データの「オーバーサンプリング」とは何ですか? 少数のクラスのデータを増やすことで、クラス間のバランスを取る手法 データの次元を削減する手法 データの標準化を行う手法 欠損データを補完する手法 None Time's up