AI実装検定B級~模擬試験~ 2024年10月31日 ailearn 1. 「交差検証」を使用する利点として最も適切なものはどれですか? 学習時間を短縮できる データの欠損を補完することができる データの分割方法に依存せずに、モデルの汎化性能を評価できる 学習率を最適化できる None 2. AI開発における「ハイパーパラメータチューニング」の方法の一つである「グリッドサーチ」の特徴はどれですか? 事前に定義した全てのハイパーパラメータの組み合わせを網羅的に試す ランダムにハイパーパラメータを調整する モデルの複雑性を減らすために使用される データの欠損値を補完するために使用される None 3. 自然言語処理(NLP)において、最も一般的に使用される「ベクトル表現」はどれですか? ワードクラウド TF-IDF ワード2ベック(Word2Vec) 形態素解析 None 4. パターン認識における「アンサンブル学習」の主な利点は何ですか? 計算時間が大幅に短縮される 過学習のリスクがなくなる 複数のモデルを組み合わせることで、予測精度が向上する 単一のモデルを使用するよりもデータの処理が簡単になる None 5. 次のうち、データの可視化に使われる手法はどれですか? 線形回帰 散布図 決定木 ニューラルネットワーク None 6. 「損失関数」の役割は何ですか? データを前処理するための関数 モデルの予測と実際の値との誤差を計算するための関数 モデルの構造を決定するための関数 学習率を調整するための関数 None 7. 「交差検証」の目的は何ですか? データ全体のパフォーマンスを評価するため、データセットを複数の部分に分けて評価を行う手法 モデルのハイパーパラメータを調整する手法 データの次元を削減する手法 データをクラスタリングする手法 None 8. 異常検知のタスクにおいて、正常データが圧倒的に多く、異常データが少ない場合、最も適切な評価指標はどれですか? 正答率(Accuracy) 平均絶対誤差(MAE) F1スコア 平均二乗誤差(MSE) None 9. データの「アンダーサンプリング」とは何ですか? 欠損データを補完する手法 データの次元を削減する手法 新しい特徴量を生成する手法 大量のデータから少数のデータをランダムに選んで使用する手法 None 10. k近傍法(k-NN)の分類アルゴリズムにおいて、kの値が小さすぎるとどのような問題が発生しますか? オーバーフィッティング アンダーフィッティング データの次元が増える ノイズが減る None 11. BERTモデルが従来の自然言語処理モデルと異なる点として、特に注目されるのはどの特徴ですか? 単一方向で文脈を学習する 双方向に文脈を学習する 訓練時間が非常に短い 形態素解析を必要としない None 12. 「エキスパートシステム」がAI研究に大きな影響を与えた年代はどの時期ですか? 1950年代 1960年代 1970年代 1980年代 None 13. 「物理シンボルシステム仮説」がAI研究に与えた影響として最も正しいものはどれですか? エキスパートシステムの普及を促進した AIの思考プロセスをシンボル操作として表現できるようになった 人間の脳の構造を模倣したシステムを開発する基盤となった 強化学習の基礎を確立した None 14. モデルの学習でよく使われる「誤差関数(損失関数)」の一つである「平均二乗誤差(MSE)」は、どのように計算されますか? 予測値と実測値の差を全て足し合わせる 予測値と実測値の比率を計算する 予測値と実測値の差を二乗し、その平均を取る 予測値と実測値の差の絶対値を計算する None 15. モデルの「汎化性能」を向上させるために適切な手法はどれですか? 学習データを増やさない モデルの複雑さを高める 交差検証や正則化を使用する 過学習を促進する None 16. 次のうち、「時系列データ」として最も適切な例はどれですか? 写真の画像データ 人口分布データ 株価の推移 顧客の購買履歴データ None 17. 1960年代のAIの発展を支えた代表的なAIプログラム「ELIZA」は、どのようなプログラムですか? ロボット制御プログラム 自然言語処理プログラム 自動運転プログラム 数値解析プログラム None 18. ニューラルネットワークの基本的な構成要素で、情報が処理される場所はどこですか? エポック 重み ニューロン(ノード) 活性化関数 None 19. 「推論」とは機械学習において何を指しますか? 訓練済みのモデルを使用して、新しいデータに対して予測や分類を行うこと モデルのパラメータを学習すること データの前処理を行うこと データを可視化すること None 20. k-NN法において、データの次元数が多くなると、分類精度が低下する「次元の呪い」が発生する理由は何ですか? 計算速度が遅くなるため データ間の距離が均一化されるため クラス間の分離が悪くなるため 適切なkを選びにくくなるため None 21. モデルの評価において「クロスバリデーション」が用いられる主な目的は何ですか? モデルの過学習を防ぎ、汎化性能を評価するため 訓練時間を短縮するため モデルの複雑さを増やすため データを削減するため None 22. ジェフリー・ヒントンらが提唱した「バックプロパゲーション法」がAIの学習において画期的だった理由はどれですか? 非線形問題を解決できるようにした エキスパートシステムの改良に貢献した コンピュータの処理能力を劇的に向上させた 人間の知識をデータベースに取り込む方法を確立した None 23. Word2Vecの「スキップグラムモデル」とはどのような手法ですか? 単語の出現頻度に基づいて単語を分類する手法 中心となる単語から周囲の文脈を予測する手法 文章全体の意味を理解する手法 単語間の相互関係を無視する手法 None 24. 自然言語処理において、ニューラルネットワークを使ってテキストを分類するために広く使用されるモデルはどれですか? CNN(畳み込みニューラルネットワーク) RNN(再帰型ニューラルネットワーク) LSTM(長短期記憶) GAN(生成的敵対ネットワーク) None 25. トランスフォーマーモデルがテキスト分類や翻訳において効果的である理由は何ですか? 短期的な依存関係を無視するため 単語の順序を無視して全ての単語を均等に処理するため 訓練データを使用せずに学習できるため 文脈全体を同時に処理し、単語間の関係を考慮できるため None 26. テキストデータの前処理として正しくないものは次のうちどれですか? ストップワードの除去 トークン化 文書分類 形態素解析 None 27. 次のうち、回帰問題に適しているアルゴリズムはどれですか? サポートベクターマシン 線形回帰 k-近傍法 クラスタリング None 28. AI開発のプロセスにおいて、データの「前処理」が重要な理由は何ですか? モデルの予測精度に影響を与えないため モデルが学習に使うデータを整理し、欠損値やノイズを除去するため モデルのサイズを削減するため モデルの学習時間を短縮するため None 29. 1997年、ガルリ・カスパロフがチェスでAIに敗れたときのAI「ディープブルー」はどの会社によって開発されましたか? Google Microsoft IBM Apple None 30. AI開発において、データの「標準化」とは何を指しますか? データを0から1の範囲に変換する データを特定のスケールに揃えることで、特徴量のスケールを統一する データの欠損値を補完する データを全て削除する None Time's up