1.
パターン認識において「クラスタリング」はどのような目的で行われますか?
2.
主成分分析(PCA)を用いた次元削減において、どのようにして「情報の損失」を最小限に抑えることができますか?
3.
データの「バイアス・バリアンストレードオフ」において、バイアスが大きい場合にモデルが示す傾向は何ですか?
4.
特徴抽出における主成分分析(PCA)の目的は何ですか?
5.
ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか?
6.
パターン認識における「教師あり学習」の特徴として正しいものはどれですか?
7.
パターン認識の主要なステップに含まれないものは次のうちどれですか?
8.
「正則化」がパターン認識において果たす主な役割は何ですか?
9.
リッジ回帰において、「L2正則化」の効果として正しいものはどれですか?
10.
畳み込みニューラルネットワーク(CNN)の「フィルターサイズ」を小さくすると、どのような影響がありますか?
11.
畳み込みニューラルネットワーク(CNN)において、プーリング層の主な役割は何ですか?
12.
パターン認識における「ノイズ」とは何を指しますか?
13.
k近傍法(k-NN)の分類アルゴリズムにおいて、kの値が小さすぎるとどのような問題が発生しますか?
14.
パターン認識におけるサポートベクターマシン(SVM)の役割は何ですか?
15.
主成分分析(PCA)を適用する前にデータの「中心化」を行う理由は何ですか?
16.
k-NN法において、データの次元数が多くなると、分類精度が低下する「次元の呪い」が発生する理由は何ですか?
17.
パターン認識における「アンサンブル学習」の主な利点は何ですか?
18.
サポートベクターマシン(SVM)における「カーネル関数」の役割は何ですか?
19.
パターン認識において「特徴ベクトル」とは何を指しますか?
20.
データ正規化がパターン認識モデルの精度向上に寄与する理由は何ですか?