情報量
情報量とは
確率p(>0)で起こる事象を観測したときの自己情報量という。
、単位はbitであらわされる。
情報量は工学系からきていて、対数の底は2とすることが多い。
また、その確率が小さいほど情報量が大きくなるという反比例の特徴を持つ。
例えば、
ジョーカーを除いたトランプから一枚抜くとき、引いたカードがスペードであることがわかっているときは
引いたカードがエースであることのみ教えられたときは
以上のように、確率でみればP(スペード)=1/13<P(エース)=1/4
であるものの、情報量はI(p)(スペード)>I(p)(エース)である。
平均情報量
情報量の平均(期待値)は
例題
当たり、はずれが入っているくじのなかから一枚引いたとき当たりがでる確率
p(当たり)=4/10
p(はずれ)=6/10