1.
パターン認識における「ノイズ」とは何を指しますか?
2.
k-NN法において、データの次元数が多くなると、分類精度が低下する「次元の呪い」が発生する理由は何ですか?
3.
特徴抽出における主成分分析(PCA)の目的は何ですか?
4.
畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか?
5.
ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか?
6.
主成分分析(PCA)を用いた次元削減において、どのようにして「情報の損失」を最小限に抑えることができますか?
7.
サポートベクターマシン(SVM)における「カーネル関数」の役割は何ですか?
8.
畳み込みニューラルネットワーク(CNN)において、プーリング層の主な役割は何ですか?
9.
パターン認識におけるサポートベクターマシン(SVM)の役割は何ですか?
10.
主成分分析(PCA)を適用する前にデータの「中心化」を行う理由は何ですか?
11.
パターン認識において「クラスタリング」はどのような目的で行われますか?
12.
「正則化」がパターン認識において果たす主な役割は何ですか?
13.
データの「バイアス・バリアンストレードオフ」において、バイアスが大きい場合にモデルが示す傾向は何ですか?
14.
データ正規化がパターン認識モデルの精度向上に寄与する理由は何ですか?
15.
k近傍法(k-NN)の分類アルゴリズムにおいて、kの値が小さすぎるとどのような問題が発生しますか?
16.
パターン認識の主要なステップに含まれないものは次のうちどれですか?
17.
パターン認識において「特徴ベクトル」とは何を指しますか?
18.
パターン認識における「教師あり学習」の特徴として正しいものはどれですか?
19.
パターン認識における「アンサンブル学習」の主な利点は何ですか?
20.
リッジ回帰において、「L2正則化」の効果として正しいものはどれですか?