AI実装検定B級~模擬試験~ 2024年10月31日 ailearn 1. AIモデルのデプロイ後に、モデルの性能が急激に低下する「データドリフト」が発生した場合の一般的な対応として正しいものはどれですか? モデルを完全に削除し、再開発する モデルをそのまま運用し続ける モデルを再訓練するか、新しいデータで再度学習を行う モデルのハイパーパラメータを調整するだけで十分 None 2. 1980年代以降のAI研究において、ニューラルネットワークが再び注目されるようになった理由はどれですか? 人間の脳の動作を完全に解明したため エキスパートシステムの開発が成功したため コンピュータの性能が飛躍的に向上したため 新しいプログラミング言語が誕生したため None 3. 次のうち、回帰問題に適しているアルゴリズムはどれですか? サポートベクターマシン 線形回帰 k-近傍法 クラスタリング None 4. 「データの前処理」として一般的に行われる操作はどれですか? 欠損値の補完 モデルの評価 ハイパーパラメータのチューニング モデルのデプロイ None 5. モデルの「ハイパーパラメータ」とは何ですか? 訓練データから学習されるパラメータ モデルの出力を正規化するためのパラメータ モデルの構造や学習率など、事前に設定されるパラメータ モデルの複雑性を制御するパラメータ None 6. AIモデルの開発と運用において「CI/CDパイプライン」の目的は何ですか? モデルの予測精度を向上させるため モデルの学習を高速化するため 継続的なインテグレーションとデプロイを自動化し、モデルを迅速に展開・更新するため モデルの複雑性を減らすため None 7. 機械学習における「過学習」とは何ですか? モデルが訓練データに対して過剰に適応し、汎化性能が低下する状態 モデルが訓練データにうまく適合できない状態 モデルが訓練データを誤って分類する状態 モデルが全てのデータをランダムに分類する状態 None 8. 特徴量選択の目的として最も適切なものは何ですか? モデルのサイズを増加させる データの欠損を補完する データのサイズを増やす モデルの性能向上と計算コストの削減 None 9. AIモデルの計算において、行列の掛け算が頻繁に使用される理由として正しいものはどれですか? モデルのサイズを減らすため データの精度を上げるため 大量のデータを効率的に処理できるため モデルの複雑性を低下させるため None 10. 時系列データに対するモデルを作成する際に考慮すべき特徴として最も重要なものは何ですか? データのスケール データのラベルの有無 データの時間的な依存関係 データの次元数 None 11. データの分布に偏りがある場合、モデルの精度にどのような影響がありますか? 全てのクラスに対して均等に精度が向上する 偏りのあるクラスに対して過剰に適応し、他のクラスでの予測精度が低下する モデルが過学習を起こす モデルが学習できなくなる None 12. 次のうち、「時系列データ」として最も適切な例はどれですか? 写真の画像データ 人口分布データ 株価の推移 顧客の購買履歴データ None 13. 自然言語処理(NLP)において、最も一般的に使用される「ベクトル表現」はどれですか? ワードクラウド TF-IDF ワード2ベック(Word2Vec) 形態素解析 None 14. 異常検知のタスクにおいて、正常データが圧倒的に多く、異常データが少ない場合、最も適切な評価指標はどれですか? 正答率(Accuracy) 平均絶対誤差(MAE) F1スコア 平均二乗誤差(MSE) None 15. モデルの精度評価に用いられる「F1スコア」とは何ですか? モデルの精度を示す基本的な指標 精度と再現率の調和平均を示す指標 訓練データのサイズを示す指標 モデルの学習速度を示す指標 None 16. 「アンサンブル学習」の目的は何ですか? 単一モデルよりも複雑なモデルを作るため モデルのパラメータを減らすため 複数の異なるモデルを組み合わせることで、予測精度を向上させるため モデルの学習速度を速めるため None 17. モデルの学習でよく使われる「誤差関数(損失関数)」の一つである「平均二乗誤差(MSE)」は、どのように計算されますか? 予測値と実測値の差を全て足し合わせる 予測値と実測値の比率を計算する 予測値と実測値の差を二乗し、その平均を取る 予測値と実測値の差の絶対値を計算する None 18. 自然言語処理において、形態素解析が難しいとされる言語はどれですか? 英語 フランス語 ドイツ語 日本語 None 19. GPTモデルのような自己回帰型モデルとBERTのような双方向モデルの違いは何ですか? GPTは文脈を無視してテキストを生成するが、BERTは文脈を利用する GPTは双方向に文脈を処理し、BERTは単方向に処理する GPTは過去の単語を利用して次の単語を予測し、BERTは全体の文脈を同時に理解する GPTは単語ベクトルに依存せず、BERTはベクトル化しない None 20. 勾配降下法の中でも「ミニバッチ勾配降下法」の利点は何ですか? 全データセットを一度に処理する 計算コストが非常に低い 全てのデータを使わずに学習を進めるため、効率的でメモリ使用量も少ない 過学習を防ぐために使われる None 21. テキストの前処理で「ストップワード」とは何を指しますか? 意味が強調される単語 検索エンジンにおける重要なキーワード 頻繁に使われるが、意味的に重要ではない単語 文書の分類基準となる単語 None 22. 「データの正規分布」とはどのような形の分布を指しますか? ランダムに分散したデータの分布 平均を中心に左右対称なベル型の分布 一方向に偏ったデータの分布 変数間の相関を表す分布 None 23. パターン認識において「クラスタリング」はどのような目的で行われますか? データのラベルを付けるため データをクラス分けするため データの次元を削減するため データを正規化するため None 24. 「エキスパートシステム」がAI研究に大きな影響を与えた年代はどの時期ですか? 1950年代 1960年代 1970年代 1980年代 None 25. 「機械学習における学習」とは何を指しますか? データを使用してモデルのパラメータを調整するプロセス 人間が直接データを入力する作業 プログラムを動かすための環境設定 モデルの推論結果を評価する作業 None 26. モデルの評価指標の一つである「AUC(Area Under Curve)」は、何を評価するために使用されますか? モデルの学習速度 精度と再現率のバランス ROC曲線の下の面積を評価し、モデルの分類性能を測る 訓練データのサイズ None 27. 次のうち、「ラベル付けされたデータ」を使用するタスクはどれですか? 教師あり学習 教師なし学習 クラスタリング 次元削減 None 28. 「推論」とは機械学習において何を指しますか? 訓練済みのモデルを使用して、新しいデータに対して予測や分類を行うこと モデルのパラメータを学習すること データの前処理を行うこと データを可視化すること None 29. LSTM(長短期記憶)モデルの最大の利点は何ですか? 長期的な文脈情報を保持できる 訓練データを少なくする 短期的な依存関係に強い 訓練が非常に早い None 30. 1980年代の「AIの冬」を引き起こした主な要因として最も正しいものはどれですか? ディープラーニングの発展 エキスパートシステムの限界 ハードウェア技術の進歩 AIに対する規制強化 None Time's up