平均信息量的計(jì)算公式是I=log2(1/p),其中p是概率,log2指以二為底的對(duì)數(shù)。但對(duì)信息量作深入而系統(tǒng)研究,還是從1948年C.E.香農(nóng)的奠基性工作開始的。在信息論中,認(rèn)為信源輸出的消息是隨機(jī)的。
信息量與信息熵在概念上是有區(qū)別的。在收到符號(hào)之前是不能肯定信源到底發(fā)送什么符號(hào),通信的目的就是使接收者在收到符號(hào)后,解除對(duì)信源存在的疑義(不確定度),使不確定度變?yōu)榱恪_@說明接收者從發(fā)送者的信源中獲得的信息量是一個(gè)相對(duì)的量(H(U)-0)。而信息熵是描述信源本身統(tǒng)計(jì)特性的物理量,它表示信源產(chǎn)生符號(hào)的平均不確定度,不管有無接收者,它總是客觀存在的量。