AI実装検定A級~模擬試験①~ 2024年12月8日 ailearn 1. Numpyにおいて、np.linalg.inv() 関数を使用する際の条件は何ですか? 行列が対角行列であること 行列の要素が整数であること 行列が正方行列であること 行列が非対称であること None 2. 順伝播で「バッチ正規化(Batch Normalization)」を使用する主な理由は次のうちどれですか? 重みを初期化するため 各層の出力を一定の範囲に正規化し、学習を安定させるため モデルの計算コストを減らすため 出力の次元を減らすため None 3. 2つのNumpy配列 a = np.array([1, 2, 3]) と b = np.array([4, 5, 6]) の外積を計算するための関数はどれですか? np.dot() np.cross() np.outer() np.multiply() None 4. DataFrameの行または列を再配置するための関数はどれですか? df.sort_index() df.reindex() df.drop() df.shift() None 5. Numpy配列 a = np.array([[1, 2], [3, 4]]) に対して a.T を実行した結果はどれですか? [[1, 2], [3, 4]] [[2, 1], [4, 3]] エラーが発生する [[1, 3], [2, 4]] None 6. 重みの初期化が不適切だとどのような問題が発生しますか? 学習が停止する 学習速度が遅くなる 過学習が発生する 勾配消失や勾配爆発が発生する None 7. 重みの更新に使用される最も一般的な手法は何ですか? モーメンタム法 勾配降下法 アダム(Adam) SGD(確率的勾配降下法) None 8. 3次元のNumpy配列 a の形状が (3, 4, 5) のとき、a.reshape(5, -1) とした場合の新しい形状はどれですか? (5, 12) (5, 15) (5, 20) エラーが発生する None 9. 順伝播において、正規化手法が使用される主な理由は次のうちどれですか? 学習率の設定を不要にするため モデルの出力を0〜1に制限するため 勾配消失や勾配爆発を防ぎ、学習を安定させるため 隠れ層のニューロン数を増やすため None 10. 重みの初期化において、深層ニューラルネットワークで「He初期化」が推奨されるのは次のうちどのような場合ですか? シグモイド活性化関数を使用する場合 ReLU活性化関数を使用する場合 活性化関数を使用しない場合 勾配爆発を促進する必要がある場合 None 11. 順伝播において、出力層で「ソフトマックス関数」を使用するのはどのような目的ですか? モデルの出力を連続値に変換するため 出力を確率分布として解釈するため 勾配の計算をスムーズにするため 出力の次元を減らすため None 12. 重み共有を行わない場合、畳み込みニューラルネットワーク(CNN)における主な問題は何ですか? 勾配消失が発生する 特徴量が効果的に抽出されなくなる 出力層のユニット数が増加する モデルの計算コストが大幅に増加する None 13. PandasでNaN値を特定の値で置換するための関数はどれですか? df.fillna() df.dropna() df.replace() df.assign() None 14. ニューラルネットワークの入力層にデータを正規化して入力する理由は何ですか? モデルの複雑さを減らすため 計算の安定性と学習速度を向上させるため モデルのパラメータ数を増やすため 隠れ層のユニット数を減らすため None 15. Pandasにおいて、列の要素を集計する際に使用される標準的な関数はどれですか? df.apply() df.sum() df.concat() df.mean() None 16. Numpy配列において、配列の要素を逆順にするために使用するスライスの指定はどれですか? [::-1] [:0] [::2] [0::-1] None 17. 順伝播の計算で「重み」と「バイアス」の役割は次のうちどれですか? 入力データを増幅する 入力データの次元を減らす 出力を制限する ノード間の結合の強度を調整し、入力にオフセットを加える None 18. 入力層で画像のピクセル値を「0〜1」に正規化する主な理由は何ですか? モデルのパラメータ数を増加させるため 勾配消失を防ぐため 学習を安定させ、収束を速めるため 特徴量を圧縮するため None 19. Numpy配列 a = np.array([1, 2, 3, 4]) に対して、a + 2 の結果はどれですか? [1, 2, 3, 4, 2] [1, 2, 3, 4] [3, 4, 5, 6] エラーが発生する None 20. ニューラルネットワークにおいて、出力層の活性化関数として「ReLU」を選択するのはどのような場合ですか? 画像認識タスク バイナリ分類タスク 出力が非負の回帰タスク マルチクラス分類タスク None 21. ニューラルネットワークの入力層で「欠損データ」をそのまま使用すると、どのような問題が発生しますか? モデルが過学習しやすくなる 勾配消失が発生する 計算が不安定になり、予測精度が低下する モデルのパラメータ数が増加する None 22. Pandasにおいて、複数のDataFrameを行方向に結合するために使用される関数はどれですか? pd.concat() pd.merge() pd.join() pd.append() None 23. ニューラルネットワークにおける順伝播の基本的な流れはどれですか? 入力層→出力層→中間層 入力層→中間層→出力層 出力層→入力層→中間層 中間層→入力層→出力層 None 24. ニューラルネットワークの入力層の役割は何ですか? モデルの予測を行う データの前処理を行う 外部からのデータをモデルに取り込む 勾配を計算する None 25. Pandasのgroupby()メソッドを使って、DataFrameをグループ化した後に合計を計算する標準的な方法はどれですか? df.groupby('列名').mean() df.groupby('列名').count() df.groupby('列名').sum() df.groupby('列名').apply() None 26. Numpy配列の要素ごとの掛け算に使用される演算子はどれですか? @ * & % None 27. Numpyにおいて、np.arange(1, 10, 2) の出力はどれですか? [1, 2, 3, 4, 5, 6, 7, 8, 9] [1, 3, 5, 7, 9] [1, 2, 4, 6, 8] [1, 3, 6, 9] None 28. PandasでDataFrameを作成するために使用される関数はどれですか? pd.Series() pd.DataFrame() pd.array() pd.matrix() None 29. Pandasにおいて、行ラベルに基づいてデータを選択するためのメソッドはどれですか? df.loc[] df.iloc[] df.at[] df.ix[] None 30. 順伝播において、モデルの出力が連続値である場合、一般的に使用される活性化関数は次のうちどれですか? ReLU ソフトマックス シグモイド 線形活性化関数 None 31. 順伝播において、活性化関数を「シグモイド関数」から「ReLU関数」に変更した場合、何が期待されますか? 勾配消失が発生しやすくなる モデルがより非線形なパターンを学習できるようになる モデルの学習速度が向上する可能性がある 出力が負の値になることが多くなる None 32. 順伝播における「全結合層(Fully Connected Layer)」の主な役割は何ですか? データの次元を縮小する 特徴を圧縮して次の層に伝える 勾配を計算して更新する 全ての入力に対して線形結合を行い、出力を計算する None 33. 画像認識タスクで、入力層のデータ形式として4次元テンソル(バッチサイズ×高さ×幅×チャネル数)を使用する理由は何ですか? モデルの計算精度を向上させるため 複数の画像データを一度に処理し、バッチ学習を行うため 特徴量を圧縮するため 勾配消失を防ぐため None 34. Pandasにおいて、Datetime列の月ごとの集計を行うために最も適切な関数はどれですか? df.resample('M').sum() df.groupby('月').sum() df.todatetime() df.month().sum() None 35. Numpyにおいて、配列 a = np.array([[1, 2], [3, 4], [5, 6]]) の2番目の行を選択するスライス指定はどれですか? a[1, :] a[:, 1] a[1] a[1:2, :] None 36. Numpy配列 a = np.array([2, 4, 6, 8]) に対して、np.cumsum(a) を実行した場合、出力はどれですか? [2, 4, 6, 8] [2, 6, 12, 20] [2, 6, 12, 18] [2, 8, 18, 32] None 37. ニューラルネットワークの入力層において、異なる次元の特徴量が混在している場合の対処法として適切なのはどれですか? 全ての特徴量を削除する 特徴量ごとに適切なスケーリングを行う 特徴量をそのまま入力する 高次元の特徴量を削減する None 38. 勾配降下法において「モーメンタム(Momentum)」を使用する理由は次のうちどれですか? モデルのパラメータ数を削減するため 学習速度を速め、勾配の振動を抑えるため 活性化関数を変更するため 過学習を防ぐため None 39. Pandasにおいて、指定した列をインデックスに設定するために使用される関数はどれですか? df.set_index() df.loc[] df.reindex() df.assign() None 40. Pandasにおいて、Datetimeデータを処理するために最も適切なデータ型はどれですか? np.datetime64 pd.DatetimeIndex pd.Timestamp pd.Period None 41. 分類タスクにおいて、出力層で使用される一般的な活性化関数は次のうちどれですか? シグモイド ReLU ソフトマックス 線形活性化関数 None 42. 勾配降下法を用いて重みを更新する際の「学習率」の役割は何ですか? 重みの更新量を調整する モデルの出力を決定する 各層のニューロンの数を決定する 活性化関数を選択する None 43. ニューラルネットワークにおいて「重み減衰(Weight Decay)」が導入される理由は何ですか? 学習率を動的に調整するため 過学習を防ぐために、重みの大きさにペナルティをかけるため 計算速度を向上させるため モデルの精度を上げるために、重みを一時的に凍結するため None 44. ニューラルネットワークの重みが「ランダム初期化」される理由の一つに、次の現象の防止があります。それは何ですか? 勾配消失 モデルの学習が停滞する ニューロンが同じ勾配を持つことによる「対称性の破れ」の欠如 活性化関数の不安定化 None 45. 「勾配クリッピング(Gradient Clipping)」が必要になる理由は何ですか? 勾配消失を防ぐため モデルの計算コストを削減するため 勾配爆発を防ぐため 活性化関数の効果を高めるため None 46. ニューラルネットワークの重み更新において、「学習率減衰(Learning Rate Decay)」が効果的である理由は何ですか? 過学習を防ぎ、学習の安定性を向上させるため モデルの収束を速めるため 出力層の精度を向上させるため 勾配消失を防ぐため None 47. 「重み減衰(Weight Decay)」の係数を過度に大きく設定すると、どのような影響が予想されますか? モデルの表現力が低下し、十分な学習が行われなくなる モデルが過学習しやすくなる モデルの計算コストが増加する 勾配消失問題が発生する None 48. Numpyにおいて、全ての要素がゼロである配列を作成するための関数はどれですか? np.ones() np.zeros() np.empty() np.fill() None 49. ニューラルネットワークの入力層において、欠損データが多い場合に行うべき対策として最も適切なものは次のうちどれですか? 欠損データをそのまま入力する 欠損データを補完するか削除する前処理を行う 欠損データを0に置き換える 欠損データを無視して学習を進める None 50. PandasのDataFrameにおいて、pivot_table()関数を使用する場合、最も一般的に指定される引数の組み合わせはどれですか? rows, values, columns index, rows, values values, axis, index values, index, columns None 51. 順伝播における「スカラー乗算」とは何を指しますか? ノード間の重みを各入力に掛け合わせる操作 出力を正規化する操作 活性化関数を適用する操作 入力データの次元を縮小する操作 None 52. PandasのDataFrameにおいて、特定の列を選択するための標準的な方法はどれですか? df.select() df['列名'] df.pick() df.loc() None 53. Numpy配列 a = np.array([[1, 2], [3, 4]]) に対して np.dot(a, a) を実行した結果はどれですか? [[7, 10], [15, 22]] [[1, 2], [3, 4]] [[1, 4], [9, 16]] エラーが発生する None 54. ニューラルネットワークの入力層で扱われるデータの次元数はどのように決まりますか? モデルの構造に依存する 入力データの次元数に依存する 中間層の数に依存する 出力層のサイズに依存する None 55. ニューラルネットワークの出力層のユニット数は何によって決まりますか? モデルの入力データの次元数 モデルの目的とタスクの種類 活性化関数の種類 隠れ層のユニット数 None 56. ニューラルネットワークにおいて、過学習を防ぐための正則化手法として、次のうちどれが重みの制御に関与しますか? ドロップアウト(Dropout) バッチ正規化(Batch Normalization) 重み減衰(Weight Decay) 勾配クリッピング(Gradient Clipping) None 57. Numpyにおいて、配列 a = np.array([1, 2, 3, 4, 5, 6]) を (2, 3) の形状に変換した場合、各要素の順序はどうなりますか? [1, 2, 3, 4, 5, 6] のまま [[1, 2, 3], [4, 5, 6]] [[1, 3, 5], [2, 4, 6]] エラーが発生する None 58. 3層ニューラルネットワークにおいて、入力層が4ユニット、中間層が5ユニット、出力層が3ユニットである場合、順伝播に必要な全ての重みの数は次のうちどれですか? 15 20 35 27 None 59. Numpyにおいて、配列 a = np.array([1, 2, 3, 4]) の要素をシャッフルする関数はどれですか? np.shuffle() np.random.shuffle() np.random.permute() np.random.rand() None 60. ニューラルネットワークで「重み共有」が使用される主な理由は何ですか? モデルの学習率を向上させるため モデルのパラメータ数を削減し、効率的な計算を可能にするため 活性化関数の効果を強化するため 勾配消失を防ぐため None Time's up