AI実装検定B級~模擬試験~ 2024年10月31日 ailearn 1. 時系列データに対するモデルを作成する際に考慮すべき特徴として最も重要なものは何ですか? データのスケール データのラベルの有無 データの時間的な依存関係 データの次元数 None 2. LSTM(長短期記憶)モデルの最大の利点は何ですか? 長期的な文脈情報を保持できる 訓練データを少なくする 短期的な依存関係に強い 訓練が非常に早い None 3. 「正則化」を行う目的は何ですか? モデルの計算速度を向上させるため データを前処理するため モデルの構造を変更するため モデルが過学習するのを防ぎ、汎化性能を向上させるため None 4. GPTモデルのような自己回帰型モデルとBERTのような双方向モデルの違いは何ですか? GPTは文脈を無視してテキストを生成するが、BERTは文脈を利用する GPTは双方向に文脈を処理し、BERTは単方向に処理する GPTは過去の単語を利用して次の単語を予測し、BERTは全体の文脈を同時に理解する GPTは単語ベクトルに依存せず、BERTはベクトル化しない None 5. 「データの前処理」として一般的に行われる操作はどれですか? 欠損値の補完 モデルの評価 ハイパーパラメータのチューニング モデルのデプロイ None 6. 次のうち、「時系列データ」として最も適切な例はどれですか? 写真の画像データ 人口分布データ 株価の推移 顧客の購買履歴データ None 7. 1980年代の「AIの冬」を引き起こした主な要因として最も正しいものはどれですか? ディープラーニングの発展 エキスパートシステムの限界 ハードウェア技術の進歩 AIに対する規制強化 None 8. パターン認識における「教師あり学習」の特徴として正しいものはどれですか? データにラベルがない 正しい答えをモデルに学習させる モデルは自己組織化によってパターンを見つける クラス分類を行わない None 9. 1950年代のAI研究において、ニューラルネットワークの基礎となった「パーセプトロン」を開発した人物は誰ですか? フランク・ローゼンブラット アラン・チューリング ジョン・マッカーシー ジェフリー・ヒントン None 10. 機械学習における「過学習」とは何ですか? モデルが訓練データに対して過剰に適応し、汎化性能が低下する状態 モデルが訓練データにうまく適合できない状態 モデルが訓練データを誤って分類する状態 モデルが全てのデータをランダムに分類する状態 None 11. ニューラルネットワークにおいて、隠れ層の数を増やすとどのような効果がありますか? 学習時間が短くなる 過学習のリスクが減る モデルが単純化される モデルの表現力が高まる None 12. 「交差検証」を使用する利点として最も適切なものはどれですか? 学習時間を短縮できる データの欠損を補完することができる データの分割方法に依存せずに、モデルの汎化性能を評価できる 学習率を最適化できる None 13. k-NN法において、データの次元数が多くなると、分類精度が低下する「次元の呪い」が発生する理由は何ですか? 計算速度が遅くなるため データ間の距離が均一化されるため クラス間の分離が悪くなるため 適切なkを選びにくくなるため None 14. モデルの「再現率(Recall)」が高いことの意味は何ですか? モデルが正しく分類できるデータの割合が高い モデルが実際に正解であるデータを正しく分類できる割合が高い モデルの全体的な精度が高い モデルの学習速度が速い None 15. 次のうち、データの可視化に使われる手法はどれですか? 線形回帰 散布図 決定木 ニューラルネットワーク None 16. モデルの「汎化性能」を向上させるために適切な手法はどれですか? 学習データを増やさない モデルの複雑さを高める 交差検証や正則化を使用する 過学習を促進する None 17. モデルの学習でよく使われる「誤差関数(損失関数)」の一つである「平均二乗誤差(MSE)」は、どのように計算されますか? 予測値と実測値の差を全て足し合わせる 予測値と実測値の比率を計算する 予測値と実測値の差を二乗し、その平均を取る 予測値と実測値の差の絶対値を計算する None 18. 2016年に、囲碁の世界チャンピオンに勝利したAIプログラムは何ですか? AlphaGo IBM Watson ディープブルー LISP None 19. 自然言語処理において、ニューラルネットワークを使ってテキストを分類するために広く使用されるモデルはどれですか? CNN(畳み込みニューラルネットワーク) RNN(再帰型ニューラルネットワーク) LSTM(長短期記憶) GAN(生成的敵対ネットワーク) None 20. 回帰問題において、予測するものは何ですか? カテゴリラベル クラスター 関数 連続的な数値 None 21. テキストデータの前処理として正しくないものは次のうちどれですか? ストップワードの除去 トークン化 文書分類 形態素解析 None 22. AIモデルの開発において「MLOps」が担う役割は何ですか? モデルのデータ収集を自動化する 機械学習の開発と運用を統合し、自動化するプロセスを提供する モデルの複雑性を減らす モデルの出力を最適化する None 23. 「アンサンブル学習」の利点は何ですか? 単一のモデルよりも計算コストを削減できる モデルのパラメータ調整が不要である 訓練データを減らして学習できる 複数の異なるモデルを組み合わせることで、予測精度を向上させる None 24. BERTとTransformerの関係性について正しい説明はどれですか? BERTはTransformerを利用したモデルである TransformerはBERTの改良版である BERTとTransformerは全く異なる技術である BERTはTransformerを不要とする新しいアーキテクチャである None 25. 自然言語処理において、生成的敵対ネットワーク(GAN)がテキスト生成に使用される際の特徴は何ですか? 正規化なしでテキストを生成する テキストの文脈を理解せずに生成する テキスト生成を通じて、よりリアルな文章を生成する 単一のモデルでテキスト分類も同時に行う None 26. ニューラルネットワークにおいて「勾配消失問題」を解決するために有効な活性化関数はどれですか? シグモイド関数 ソフトマックス関数 ReLU(Rectified Linear Unit) タンジェントハイパボリック関数 None 27. k近傍法(k-NN)の分類アルゴリズムにおいて、kの値が小さすぎるとどのような問題が発生しますか? オーバーフィッティング アンダーフィッティング データの次元が増える ノイズが減る None 28. ニューラルネットワークにおいて「勾配消失問題」を解決するために有効な手法はどれですか? ReLU活性化関数の使用 勾配降下法を使用する 交差エントロピー誤差を使用する ドロップアウトを適用する None 29. 教師なし学習でよく使用されるタスクはどれですか? 回帰 分類 クラスタリング 推論 None 30. データ正規化がパターン認識モデルの精度向上に寄与する理由は何ですか? 特徴量間のスケールを揃えることで、モデルのバイアスを防ぐため データを整数に変換するため 計算コストを低減するため データの次元を削減するため None Time's up