2.
Sigmoid関数の出力が1に非常に近い場合、微分の値はどうなりますか?
3.
Sigmoid関数を使用した場合、出力が飽和することの最大のデメリットは何ですか?
4.
Sigmoid関数をロジスティック回帰で使用する理由は何ですか?
5.
Sigmoid関数を多層パーセプトロンの隠れ層で用いた際、勾配消失問題が発生する可能性が高い状況はどれですか?
6.
Sigmoid関数を活性化関数として使用した場合、どのようなデータ標準化手法が効果的ですか?
7.
Sigmoid関数の微分が0に近づくと、学習過程にどのような影響を与えますか?
8.
Sigmoid関数の入力 𝑥 x が0のときの出力は?
10.
Sigmoid関数の特性を持つ他の関数はどれですか?
12.
Sigmoid関数を使用する際のデメリットとして、勾配消失以外の問題点はどれですか?
13.
Sigmoid関数の出力をバッチ正規化で調整することの利点は何ですか?
14.
Sigmoid関数が活性化関数として用いられる場合の欠点はどれですか?
15.
Sigmoid関数とReLU関数の最大の違いはどれですか?
16.
深層ニューラルネットワークでSigmoid関数を複数層で使用することが推奨されない理由は何ですか?
17.
Sigmoid関数を用いたロジスティック回帰モデルが、確率的解釈に優れている理由は何ですか?
19.
Sigmoid関数の入力に非常に大きな値を与えると、出力がどのように変化するか説明してください。
20.
Sigmoid関数のロジスティック回帰での使用において、出力が確率を意味するために満たすべき条件は何ですか?