相互情報量

H(A) 及び H(B) をそれぞれA および Bエントロピーとする。

H(B|A)B の、 Aが与えられたときの、条件付エントロピーとする。

 

Aを知ることによってBを知ったときのびっくり度合いが緩和されるかも知れないのでH(B)\geq H(B|A)が成立する。

 

では、Aを知った後にBを知ったときに、どれだけびっくりできるか、つまりH(B)-H(B|A)は、ABの両方に共通している情報(びっくり成分)であるから、AB相互情報量といいI(A,B)で表す。

 

これは、ABが「独立であるという理想」と「現実の分布」との隔を表していて、I(A,B)=D(p(A,B)||p(A)p(B))となっている。