AI実装検定B級~模擬試験①~ 2024年12月8日 ailearn 1. 特徴抽出における主成分分析(PCA)の目的は何ですか? データの次元を削減する データをクラス分けする データにノイズを加える データの品質を上げる None 2. データの「バイアス・バリアンストレードオフ」において、バイアスが大きい場合にモデルが示す傾向は何ですか? 過学習が起こりやすくなる 学習データに対する精度が高くなる モデルが単純化され、訓練データに過剰に適応しない テストデータに対する精度が高くなる None 3. データの「アンダーサンプリング」とは何ですか? 欠損データを補完する手法 データの次元を削減する手法 新しい特徴量を生成する手法 大量のデータから少数のデータをランダムに選んで使用する手法 None 4. パターン認識において「クラスタリング」はどのような目的で行われますか? データのラベルを付けるため データをクラス分けするため データの次元を削減するため データを正規化するため None 5. 「正則化」を行う目的は何ですか? モデルの計算速度を向上させるため データを前処理するため モデルの構造を変更するため モデルが過学習するのを防ぎ、汎化性能を向上させるため None 6. データの「正規化」とは何を指しますか? 欠損値を補完すること データを一定の範囲にスケーリングすること データをグループに分けること データのラベルを付けること None 7. 「データの前処理」として一般的に行われる操作はどれですか? 欠損値の補完 モデルの評価 ハイパーパラメータのチューニング モデルのデプロイ None 8. 次のうち、回帰問題に適しているアルゴリズムはどれですか? サポートベクターマシン 線形回帰 k-近傍法 クラスタリング None 9. 「交差検証」を使用する利点として最も適切なものはどれですか? 学習時間を短縮できる データの欠損を補完することができる データの分割方法に依存せずに、モデルの汎化性能を評価できる 学習率を最適化できる None 10. 2016年に、囲碁の世界チャンピオンに勝利したAIプログラムは何ですか? AlphaGo IBM Watson ディープブルー LISP None 11. k近傍法(k-NN)の分類アルゴリズムにおいて、kの値が小さすぎるとどのような問題が発生しますか? オーバーフィッティング アンダーフィッティング データの次元が増える ノイズが減る None 12. データの分布に偏りがある場合、モデルの精度にどのような影響がありますか? 全てのクラスに対して均等に精度が向上する 偏りのあるクラスに対して過剰に適応し、他のクラスでの予測精度が低下する モデルが過学習を起こす モデルが学習できなくなる None 13. 特徴量選択の目的として最も適切なものは何ですか? モデルのサイズを増加させる データの欠損を補完する データのサイズを増やす モデルの性能向上と計算コストの削減 None 14. 異常検知のタスクにおいて、正常データが圧倒的に多く、異常データが少ない場合、最も適切な評価指標はどれですか? 正答率(Accuracy) 平均絶対誤差(MAE) F1スコア 平均二乗誤差(MSE) None 15. ニューラルネットワークの「層の深さ」が増えると、どのような影響がある可能性が高いですか? モデルがより複雑なパターンを学習できるが、勾配消失問題が発生しやすくなる モデルの計算時間が減少する モデルの汎化性能が常に向上する 学習が必要なくなる None 16. 1960年代のAIの発展を支えた代表的なAIプログラム「ELIZA」は、どのようなプログラムですか? ロボット制御プログラム 自然言語処理プログラム 自動運転プログラム 数値解析プログラム None 17. 異常検知に使用される代表的なアルゴリズムはどれですか? 主成分分析(PCA) 線形回帰 k-近傍法(k-NN) ニューラルネットワーク None 18. 「ドロップアウト」はニューラルネットワークにおいてどのような役割を果たしますか? 勾配消失問題を解決するための技術 データを正規化する技術 モデルの推論を高速化する技術 過学習を防ぐために、ランダムにニューロンを無効化する技術 None 19. モデルの「汎化性能」を向上させるために適切な手法はどれですか? 学習データを増やさない モデルの複雑さを高める 交差検証や正則化を使用する 過学習を促進する None 20. 「推論」とは機械学習において何を指しますか? 訓練済みのモデルを使用して、新しいデータに対して予測や分類を行うこと モデルのパラメータを学習すること データの前処理を行うこと データを可視化すること None 21. ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか? 学習時間が短くなる 過学習のリスクが減る モデルが単純化される モデルの表現力が高まる None 22. 主成分分析(PCA)を適用する前にデータの「中心化」を行う理由は何ですか? 計算コストを減らすため 分散を最大化するため データのスケールを揃えるため 次元削減の精度を上げるため None 23. 「次元削減」とは何を指しますか? データを新しいクラスに分類する手法 データを時系列に沿って並べ替える手法 データを標準化する手法 データの次元数を減らして、学習効率や可視化を向上させる手法 None 24. データの「標準化」とはどのような操作ですか? データを平均0、標準偏差1にスケーリングする操作 データをグループに分ける操作 データを欠損値で補完する操作 データにラベルを付ける操作 None 25. 次のうち、「時系列データ」として最も適切な例はどれですか? 写真の画像データ 人口分布データ 株価の推移 顧客の購買履歴データ None 26. 畳み込みニューラルネットワーク(CNN)において、プーリング層の主な役割は何ですか? 特徴マップの次元を削減し、重要な特徴を抽出する 重みの学習を高速化する 非線形性を導入する データを正規化する None 27. サポートベクターマシン(SVM)における「カーネル関数」の役割は何ですか? 訓練データのノイズを除去する 特徴ベクトルをより高次元の空間にマッピングする 決定境界を線形化する データの正規化を行う None 28. パターン認識の主要なステップに含まれないものは次のうちどれですか? データ収集 特徴抽出 クラス分類 ラベル付け None 29. 「AIの父」として知られている科学者は誰ですか? アラン・チューリング ジョン・マッカーシー マービン・ミンスキー ジェフリー・ヒントン None 30. ニューラルネットワークの「学習率」を適切に設定しないと起こりうる問題はどれですか? 学習率が高すぎると最適解に到達できない、または振動する可能性がある 学習率が高すぎると過学習が発生する 学習率が低すぎるとモデルが過学習する 学習率が低すぎるとデータが不足する None Time's up