AI実装検定B級~模擬試験①~ 2024年12月8日 ailearn 1. 「バッチ学習」と「オンライン学習」の違いは何ですか? バッチ学習はデータ全体を一度に使用して学習し、オンライン学習はデータを逐次使用して学習する バッチ学習は並列処理を行い、オンライン学習は単一処理を行う バッチ学習はリアルタイムで学習を行い、オンライン学習は事前に学習を行う バッチ学習は大規模データセットに対応し、オンライン学習は小規模データセットに特化する None 2. 次のうち、データの可視化に使われる手法はどれですか? 線形回帰 散布図 決定木 ニューラルネットワーク None 3. 「L1正則化」と「L2正則化」の違いは何ですか? L1正則化は全ての重みをゼロにし、L2正則化は一部の重みを大きくする L1正則化は一部の重みをゼロにし、L2正則化は全ての重みを小さくする L1正則化は学習率を調整し、L2正則化はデータを正規化する L1正則化はデータの一部を削除し、L2正則化はデータの欠損を補う None 4. ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか? 学習時間が短くなる 過学習のリスクが減る モデルが単純化される モデルの表現力が高まる None 5. データの分布に偏りがある場合、モデルの精度にどのような影響がありますか? 全てのクラスに対して均等に精度が向上する 偏りのあるクラスに対して過剰に適応し、他のクラスでの予測精度が低下する モデルが過学習を起こす モデルが学習できなくなる None 6. パターン認識の主要なステップに含まれないものは次のうちどれですか? データ収集 特徴抽出 クラス分類 ラベル付け None 7. 1960年代のAIの発展を支えた代表的なAIプログラム「ELIZA」は、どのようなプログラムですか? ロボット制御プログラム 自然言語処理プログラム 自動運転プログラム 数値解析プログラム None 8. 「データの正規分布」とはどのような形の分布を指しますか? ランダムに分散したデータの分布 平均を中心に左右対称なベル型の分布 一方向に偏ったデータの分布 変数間の相関を表す分布 None 9. ニューラルネットワークの「層の深さ」が増えると、どのような影響がある可能性が高いですか? モデルがより複雑なパターンを学習できるが、勾配消失問題が発生しやすくなる モデルの計算時間が減少する モデルの汎化性能が常に向上する 学習が必要なくなる None 10. サポートベクターマシン(SVM)における「カーネル関数」の役割は何ですか? 訓練データのノイズを除去する 特徴ベクトルをより高次元の空間にマッピングする 決定境界を線形化する データの正規化を行う None 11. 「勾配消失問題」とはどのような問題ですか? 学習が進むにつれて勾配が0に近づき、重みの更新が停止する問題 データがランダムに分散される問題 モデルが学習できない問題 データが欠損する問題 None 12. 畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか? 過学習のリスクが減る モデルが非線形性を捉えにくくなる 学習に必要な計算量が増える 特徴マップの解像度が上がる None 13. 異常検知のタスクにおいて、正常データが圧倒的に多く、異常データが少ない場合、最も適切な評価指標はどれですか? 正答率(Accuracy) 平均絶対誤差(MAE) F1スコア 平均二乗誤差(MSE) None 14. 「推論」とは機械学習において何を指しますか? 訓練済みのモデルを使用して、新しいデータに対して予測や分類を行うこと モデルのパラメータを学習すること データの前処理を行うこと データを可視化すること None 15. モデルの「汎化性能」を向上させるために適切な手法はどれですか? 学習データを増やさない モデルの複雑さを高める 交差検証や正則化を使用する 過学習を促進する None 16. データの「アンダーサンプリング」とは何ですか? 欠損データを補完する手法 データの次元を削減する手法 新しい特徴量を生成する手法 大量のデータから少数のデータをランダムに選んで使用する手法 None 17. 「損失関数」の役割は何ですか? データを前処理するための関数 モデルの予測と実際の値との誤差を計算するための関数 モデルの構造を決定するための関数 学習率を調整するための関数 None 18. 教師あり学習において、「正解データ」を持たない学習方法は何ですか? 教師なし学習 強化学習 ディープラーニング ハイパーパラメータ調整 None 19. 特徴抽出における主成分分析(PCA)の目的は何ですか? データの次元を削減する データをクラス分けする データにノイズを加える データの品質を上げる None 20. リッジ回帰において、「L2正則化」の効果として正しいものはどれですか? モデルの全ての重みをゼロに近づける 一部の特徴量を完全に無視する モデルの重みを小さくし、過学習を防ぐ データの次元を削減する None 21. 1956年に開催された「ダートマス会議」は、AIの歴史において何を示唆した出来事でしたか? AIの正式な誕生 初のAI論文の発表 初のAI企業の設立 人工知能の定義が初めて確立された None 22. 「ドロップアウト」はニューラルネットワークにおいてどのような役割を果たしますか? 勾配消失問題を解決するための技術 データを正規化する技術 モデルの推論を高速化する技術 過学習を防ぐために、ランダムにニューロンを無効化する技術 None 23. 「次元削減」とは何を指しますか? データを新しいクラスに分類する手法 データを時系列に沿って並べ替える手法 データを標準化する手法 データの次元数を減らして、学習効率や可視化を向上させる手法 None 24. ディープラーニングの基礎となる「バックプロパゲーション法」が最初に提案されたのはどの年代ですか? 1950年代 1960年代 1980年代 2000年代 None 25. 「ハイパーパラメータ」とは何ですか? モデルの学習プロセスで手動で設定されるパラメータ モデルの出力に直接影響を与えるパラメータ データの前処理に使われるパラメータ 推論時に動的に決定されるパラメータ None 26. パターン認識における「アンサンブル学習」の主な利点は何ですか? 計算時間が大幅に短縮される 過学習のリスクがなくなる 複数のモデルを組み合わせることで、予測精度が向上する 単一のモデルを使用するよりもデータの処理が簡単になる None 27. 異常検知に使用される代表的なアルゴリズムはどれですか? 主成分分析(PCA) 線形回帰 k-近傍法(k-NN) ニューラルネットワーク None 28. 「交差検証」を使用する利点として最も適切なものはどれですか? 学習時間を短縮できる データの欠損を補完することができる データの分割方法に依存せずに、モデルの汎化性能を評価できる 学習率を最適化できる None 29. パターン認識において「特徴ベクトル」とは何を指しますか? データのラベル クラス分類の結果 データを特徴量で表現したベクトル パターンの一致度 None 30. 「AIの父」として知られている科学者は誰ですか? アラン・チューリング ジョン・マッカーシー マービン・ミンスキー ジェフリー・ヒントン None Time's up