AI実装検定A級~模擬試験①~ 2024年12月8日 ailearn 1. PandasでNaN値を特定の値で置換するための関数はどれですか? df.fillna() df.dropna() df.replace() df.assign() None 2. Pandasのgroupby()メソッドを使って、DataFrameをグループ化した後に合計を計算する標準的な方法はどれですか? df.groupby('列名').mean() df.groupby('列名').count() df.groupby('列名').sum() df.groupby('列名').apply() None 3. Numpyにおいて、np.linalg.inv() 関数を使用する際の条件は何ですか? 行列が対角行列であること 行列の要素が整数であること 行列が正方行列であること 行列が非対称であること None 4. 「勾配クリッピング(Gradient Clipping)」が必要になる理由は何ですか? 勾配消失を防ぐため モデルの計算コストを削減するため 勾配爆発を防ぐため 活性化関数の効果を高めるため None 5. 順伝播における活性化関数の役割は次のうちどれですか? ノード間の結合強度を調整する 非線形性を導入し、モデルの表現力を高める 勾配の計算を行う 出力の正規化を行う None 6. ニューラルネットワークの「重み」とは何ですか? モデルの出力を決定するための数値 モデルの学習率を制御するパラメータ 各層のノード間で学習されるパラメータ 活性化関数の一部 None 7. 順伝播において、正規化手法が使用される主な理由は次のうちどれですか? 学習率の設定を不要にするため モデルの出力を0〜1に制限するため 勾配消失や勾配爆発を防ぎ、学習を安定させるため 隠れ層のニューロン数を増やすため None 8. Numpy配列 a = np.array([[1, 2], [3, 4]]) に対して np.dot(a, a) を実行した結果はどれですか? [[7, 10], [15, 22]] [[1, 2], [3, 4]] [[1, 4], [9, 16]] エラーが発生する None 9. ニューラルネットワークの入力層において、異なる次元の特徴量が混在している場合の対処法として適切なのはどれですか? 全ての特徴量を削除する 特徴量ごとに適切なスケーリングを行う 特徴量をそのまま入力する 高次元の特徴量を削減する None 10. 順伝播において、畳み込み層で使用される「フィルタ(カーネル)」はどのような役割を果たしますか? ノード間の結合強度を決定する データの次元を縮小する 入力画像から特徴を抽出する 出力をスケーリングする None 11. ニューラルネットワークで「重み共有」が使用される主な理由は何ですか? モデルの学習率を向上させるため モデルのパラメータ数を削減し、効率的な計算を可能にするため 活性化関数の効果を強化するため 勾配消失を防ぐため None 12. Pandasにおいて、Datetime列の月ごとの集計を行うために最も適切な関数はどれですか? df.resample('M').sum() df.groupby('月').sum() df.todatetime() df.month().sum() None 13. Numpy配列の形状を変形するために使用される関数はどれですか? np.reshape() np.resize() np.reform() np.shape() None 14. 分類タスクにおいて、出力層で使用される一般的な活性化関数は次のうちどれですか? シグモイド ReLU ソフトマックス 線形活性化関数 None 15. 順伝播において、出力層で「ソフトマックス関数」を使用するのはどのような目的ですか? モデルの出力を連続値に変換するため 出力を確率分布として解釈するため 勾配の計算をスムーズにするため 出力の次元を減らすため None 16. PandasのDataFrameにおいて、行数と列数を確認するための属性はどれですか? df.size df.shape df.count() df.columns None 17. 次のうち、回帰問題で一般的に使用される出力層の活性化関数はどれですか? ReLU ソフトマックス シグモイド 線形活性化関数 None 18. ニューラルネットワークにおける「勾配爆発(Gradient Explosion)」はどのように発生しますか? 重みが非常に大きな値に更新されることにより発生する 活性化関数が不適切に選択されている場合に発生する モデルの学習率が小さすぎる場合に発生する 出力層のユニット数が過剰な場合に発生する None 19. 順伝播において、モデルの出力が連続値である場合、一般的に使用される活性化関数は次のうちどれですか? ReLU ソフトマックス シグモイド 線形活性化関数 None 20. ニューラルネットワークの入力層で扱われるデータの次元数はどのように決まりますか? モデルの構造に依存する 入力データの次元数に依存する 中間層の数に依存する 出力層のサイズに依存する None 21. ニューラルネットワークの入力層にデータを正規化して入力する理由は何ですか? モデルの複雑さを減らすため 計算の安定性と学習速度を向上させるため モデルのパラメータ数を増やすため 隠れ層のユニット数を減らすため None 22. 重みの初期化が不適切だとどのような問題が発生しますか? 学習が停止する 学習速度が遅くなる 過学習が発生する 勾配消失や勾配爆発が発生する None 23. Numpy配列における行列積を計算するための関数はどれですか? np.matmul() np.dot() np.product() np.cross() None 24. PandasでDataFrameを作成するために使用される関数はどれですか? pd.Series() pd.DataFrame() pd.array() pd.matrix() None 25. ニューラルネットワークにおける順伝播の基本的な流れはどれですか? 入力層→出力層→中間層 入力層→中間層→出力層 出力層→入力層→中間層 中間層→入力層→出力層 None 26. Numpy配列の要素ごとの掛け算に使用される演算子はどれですか? @ * & % None 27. Pandasにおいて、DataFrame内の全ての列に対して、欠損値が存在するかどうかを確認するための関数はどれですか? df.isnull() df.notnull() df.any() df.all() None 28. Pandasにおいて、指定した列をインデックスに設定するために使用される関数はどれですか? df.set_index() df.loc[] df.reindex() df.assign() None 29. 3層ニューラルネットワークにおいて、入力層が4ユニット、中間層が5ユニット、出力層が3ユニットである場合、順伝播に必要な全ての重みの数は次のうちどれですか? 15 20 35 27 None 30. 出力層で多クラス分類問題にソフトマックス関数を適用する際、出力が適切な確率分布となるための前提条件は次のうちどれですか? 出力層のユニット数が入力層と同じである 隠れ層の数が十分に多い 出力層のユニット数が1である 出力層のユニット数が分類するクラス数と等しい None 31. 「重み減衰(Weight Decay)」の係数を過度に大きく設定すると、どのような影響が予想されますか? モデルの表現力が低下し、十分な学習が行われなくなる モデルが過学習しやすくなる モデルの計算コストが増加する 勾配消失問題が発生する None 32. ニューラルネットワークの入力層で「欠損データ」をそのまま使用すると、どのような問題が発生しますか? モデルが過学習しやすくなる 勾配消失が発生する 計算が不安定になり、予測精度が低下する モデルのパラメータ数が増加する None 33. Numpyにおいて、全ての要素がゼロである配列を作成するための関数はどれですか? np.ones() np.zeros() np.empty() np.fill() None 34. Numpy配列を作成するために使用される関数はどれですか? np.array() np.matrix() np.list() np.tuple() None 35. 順伝播での出力が期待通りに学習されない場合、どの要素が問題になる可能性が高いですか? 活性化関数の選択 バッチサイズ 重みのランダム初期化 入力データの正規化 None 36. PandasのDataFrameにおいて、pivot_table()関数を使用する場合、最も一般的に指定される引数の組み合わせはどれですか? rows, values, columns index, rows, values values, axis, index values, index, columns None 37. 入力層で画像のピクセル値を「0〜1」に正規化する主な理由は何ですか? モデルのパラメータ数を増加させるため 勾配消失を防ぐため 学習を安定させ、収束を速めるため 特徴量を圧縮するため None 38. ニューラルネットワークにおいて「重み減衰(Weight Decay)」が導入される理由は何ですか? 学習率を動的に調整するため 過学習を防ぐために、重みの大きさにペナルティをかけるため 計算速度を向上させるため モデルの精度を上げるために、重みを一時的に凍結するため None 39. Numpyにおいて、配列 a = np.array([1, 2, 3, 4]) の要素をシャッフルする関数はどれですか? np.shuffle() np.random.shuffle() np.random.permute() np.random.rand() None 40. 重み共有を行わない場合、畳み込みニューラルネットワーク(CNN)における主な問題は何ですか? 勾配消失が発生する 特徴量が効果的に抽出されなくなる 出力層のユニット数が増加する モデルの計算コストが大幅に増加する None 41. 2つのNumpy配列 a = np.array([1, 2, 3]) と b = np.array([4, 5, 6]) の外積を計算するための関数はどれですか? np.dot() np.cross() np.outer() np.multiply() None 42. 勾配降下法を用いて重みを更新する際の「学習率」の役割は何ですか? 重みの更新量を調整する モデルの出力を決定する 各層のニューロンの数を決定する 活性化関数を選択する None 43. Numpyにおいて、配列 a = np.array([1, 2, 3, 4, 5, 6]) を (2, 3) の形状に変換した場合、各要素の順序はどうなりますか? [1, 2, 3, 4, 5, 6] のまま [[1, 2, 3], [4, 5, 6]] [[1, 3, 5], [2, 4, 6]] エラーが発生する None 44. あるニューラルネットワークで、順伝播の途中で計算された中間層の出力が全て同じ値になってしまう場合の主な原因は何ですか? 活性化関数の設定が不適切である 重みが全てゼロに初期化された 勾配消失が発生している 学習率が大きすぎる None 45. 順伝播において、入力データがスパース(多くのゼロを含む)である場合、どのような対策が有効ですか? 重みの初期化をランダムに行う 入力データに対して正規化を行う データを正規分布に従って再生成する スパース性を活かすような活性化関数(ReLUなど)を使用する None 46. 順伝播の計算において、各層の出力を計算する際に必要となる要素は次のうちどれですか? 入力データ、重み、バイアス、活性化関数 出力データ、学習率、活性化関数 勾配、学習率、重み バッチサイズ、重み、バイアス None 47. 重みの「ランダム初期化」が重要である理由は次のうちどれですか? 重みが0に設定されると、すべてのニューロンが同じ勾配を持つため モデルのパラメータ数を減らすため 出力層のユニット数を増やすため 勾配爆発を防ぐため None 48. ニューラルネットワークの入力層で、テキストデータを処理する際に一般的に行われる前処理は次のうちどれですか? 標準化 単語のベクトル化(Embedding) プーリング チャネル数の増加 None 49. ニューラルネットワークにおいて、出力層の活性化関数として「ReLU」を選択するのはどのような場合ですか? 画像認識タスク バイナリ分類タスク 出力が非負の回帰タスク マルチクラス分類タスク None 50. Numpyにおいて、np.arange(1, 10, 2) の出力はどれですか? [1, 2, 3, 4, 5, 6, 7, 8, 9] [1, 3, 5, 7, 9] [1, 2, 4, 6, 8] [1, 3, 6, 9] None 51. 3次元のNumpy配列 a の形状が (3, 4, 5) のとき、a.reshape(5, -1) とした場合の新しい形状はどれですか? (5, 12) (5, 15) (5, 20) エラーが発生する None 52. Pandasにおいて、列の要素を集計する際に使用される標準的な関数はどれですか? df.apply() df.sum() df.concat() df.mean() None 53. 出力層において「シグモイド関数」を用いると、どのような特性が得られますか? 出力が0〜1の範囲に制限され、バイナリ分類に適する 出力が-1〜1の範囲に制限され、多クラス分類に適する 勾配消失が防げる 出力が常に非負値となる None 54. 順伝播において、出力層での計算結果は何を表していますか? 各層でのエラーメッセージ モデルが学習した重み モデルの最終的な予測値 入力データの正規化 None 55. PandasのDataFrameにおいて、特定の列を選択するための標準的な方法はどれですか? df.select() df['列名'] df.pick() df.loc() None 56. ニューラルネットワークの重み更新において、「学習率減衰(Learning Rate Decay)」が効果的である理由は何ですか? 過学習を防ぎ、学習の安定性を向上させるため モデルの収束を速めるため 出力層の精度を向上させるため 勾配消失を防ぐため None 57. 画像認識タスクで、入力層のデータ形式として4次元テンソル(バッチサイズ×高さ×幅×チャネル数)を使用する理由は何ですか? モデルの計算精度を向上させるため 複数の画像データを一度に処理し、バッチ学習を行うため 特徴量を圧縮するため 勾配消失を防ぐため None 58. 重みの更新に使用される最も一般的な手法は何ですか? モーメンタム法 勾配降下法 アダム(Adam) SGD(確率的勾配降下法) None 59. Pandasでデータを読み込むために使用される関数のうち、CSVファイルを読み込むための関数はどれですか? pd.read_excel() pd.read_json() pd.read_csv() pd.read_sql() None 60. 勾配消失問題は、主にどのような状況で発生しますか? 重みが非常に大きな値を取る場合 深層ニューラルネットワークで、勾配が層を通じて次第に小さくなる場合 活性化関数としてReLUが使用されている場合 モデルが過学習している場合 None Time's up