1.
エントロピー H(X) = 2.5 のとき、この情報源の平均情報量はどれですか?
2.
情報量の単位として「ビット」が使われる理由は何ですか?
3.
情報圧縮におけるハフマン符号の役割は何ですか?
4.
情報源符号化において、符号の平均長がエントロピーに等しいとき、どのような符号化が達成されていますか?
5.
ある情報源が4つの異なる事象 {A, B, C, D} を等確率で生成する場合、この情報源のエントロピーはどれですか?
7.
ある通信路で、信号対雑音比 (SNR) が 20dB、帯域幅が 2kHz であるとき、シャノンの通信路容量はおよそどれですか?
9.
符号化における「冗長性」とは何を意味しますか?
10.
シャノンの通信理論における「通信路容量」とは何ですか?
11.
情報理論における「無記憶(メモリーレス)通信路」とは何ですか?
13.
雑音が含まれる通信路において、符号化率 R が通信路容量 C より小さい場合、次のうち正しい記述はどれですか?
14.
符号化定理に基づき、帯域幅 B と通信路容量 C の関係に影響を与える要因は何ですか?
15.
符号化率 R = 5 kbps、通信路容量 C = 8 kbps のとき、この通信の信頼性はどうなりますか?
16.
情報理論における「相互情報量」とは何を意味しますか?
17.
情報理論において、雑音が多い通信路でエラーを減らすための典型的な方法はどれですか?
18.
情報理論における「エントロピー」の定義は何ですか?
19.
エントロピー H(X) の値が最大になるのはどのような場合ですか?
20.
シャノンの定理に基づき、ある通信路の容量が C = 10 kbps、信号対雑音比 (SNR) が 30 dB であるとき、この通信路の帯域幅はおよそどれですか?