p(i): Wahrscheinlichkeit, mit der das i-te Zeichen eines Alphabets von N Zeichen auftrittH : Erwartungswert des Informationsgehalts = beseitigte Ungewissheit := Entropie Maß für den mittleren Informationsgehalt pro Zeichen einer Quelle ld: Logarithmus dualis Analogie zur statistischen Thermodynamik:Entropie S = k * ln Ω k : Boltzmann Konstante k = 1,3806504 * 10 exp (-23) Ws/KΩ : Zahl der möglichen Mikrozustände eines Systems |
weiter