AI実装検定B級-AI超入門(パターン認識)-

1. 
主成分分析(PCA)を適用する前にデータの「中心化」を行う理由は何ですか?

2. 
サポートベクターマシン(SVM)における「カーネル関数」の役割は何ですか?

3. 
パターン認識におけるサポートベクターマシン(SVM)の役割は何ですか?

4. 
k近傍法(k-NN)の分類アルゴリズムにおいて、kの値が小さすぎるとどのような問題が発生しますか?

5. 
データの「バイアス・バリアンストレードオフ」において、バイアスが大きい場合にモデルが示す傾向は何ですか?

6. 
パターン認識において「クラスタリング」はどのような目的で行われますか?

7. 
リッジ回帰において、「L2正則化」の効果として正しいものはどれですか?

8. 
パターン認識の主要なステップに含まれないものは次のうちどれですか?

9. 
畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか?

10. 
パターン認識において「特徴ベクトル」とは何を指しますか?

11. 
「正則化」がパターン認識において果たす主な役割は何ですか?

12. 
k-NN法において、データの次元数が多くなると、分類精度が低下する「次元の呪い」が発生する理由は何ですか?

13. 
パターン認識における「アンサンブル学習」の主な利点は何ですか?

14. 
ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか?

15. 
データ正規化がパターン認識モデルの精度向上に寄与する理由は何ですか?

16. 
パターン認識における「教師あり学習」の特徴として正しいものはどれですか?

17. 
パターン認識における「ノイズ」とは何を指しますか?

18. 
特徴抽出における主成分分析(PCA)の目的は何ですか?

19. 
畳み込みニューラルネットワーク(CNN)において、プーリング層の主な役割は何ですか?

20. 
主成分分析(PCA)を用いた次元削減において、どのようにして「情報の損失」を最小限に抑えることができますか?

コメントを残すにはログインしてください。