Informationsgehalt, relativer

 

[engl. relative information content/entropy], syn. Entropie; der relative Informationsgehalt H ist das Maß der Dispersion einer Werteverteilung, das ab Nominalskalenniveau (Skalenniveau) verwendet werden kann (Informationstheorie). Kommen alle Messwerte gleich häufig vor, ist H maximal. Kommt nur ein Messwert vor, ist H minimal. Es gilt:

H%3D-%5Cfrac%7B1%7D%7Bln(k)%7D%5Ccdot%20%5Csum_%7Bj%3D1%7D%5E%7BK%7Dh_%7Bj%7D%5Ccdot%20ln(h_%7Bj%7D)

k = Anzahl der Merkmalsausprägungen

h_%7Bj%7D = rel. Häufigkeit der Merkmalsausprägung j