1.
主成分分析(PCA)を適用する前にデータの「中心化」を行う理由は何ですか?
2.
サポートベクターマシン(SVM)における「カーネル関数」の役割は何ですか?
3.
パターン認識におけるサポートベクターマシン(SVM)の役割は何ですか?
4.
k近傍法(k-NN)の分類アルゴリズムにおいて、kの値が小さすぎるとどのような問題が発生しますか?
5.
データの「バイアス・バリアンストレードオフ」において、バイアスが大きい場合にモデルが示す傾向は何ですか?
6.
パターン認識において「クラスタリング」はどのような目的で行われますか?
7.
リッジ回帰において、「L2正則化」の効果として正しいものはどれですか?
8.
パターン認識の主要なステップに含まれないものは次のうちどれですか?
9.
畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか?
10.
パターン認識において「特徴ベクトル」とは何を指しますか?
11.
「正則化」がパターン認識において果たす主な役割は何ですか?
12.
k-NN法において、データの次元数が多くなると、分類精度が低下する「次元の呪い」が発生する理由は何ですか?
13.
パターン認識における「アンサンブル学習」の主な利点は何ですか?
14.
ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか?
15.
データ正規化がパターン認識モデルの精度向上に寄与する理由は何ですか?
16.
パターン認識における「教師あり学習」の特徴として正しいものはどれですか?
17.
パターン認識における「ノイズ」とは何を指しますか?
18.
特徴抽出における主成分分析(PCA)の目的は何ですか?
19.
畳み込みニューラルネットワーク(CNN)において、プーリング層の主な役割は何ですか?
20.
主成分分析(PCA)を用いた次元削減において、どのようにして「情報の損失」を最小限に抑えることができますか?