Informationsgehalt, relativer
[engl. relative information content/entropy], syn. Entropie; der relative Informationsgehalt H ist das Maß der Dispersion einer Werteverteilung, das ab Nominalskalenniveau (Skalenniveau) verwendet werden kann (Informationstheorie). Kommen alle Messwerte gleich häufig vor, ist H maximal. Kommt nur ein Messwert vor, ist H minimal. Es gilt:
k = Anzahl der Merkmalsausprägungen
= rel. Häufigkeit der Merkmalsausprägung j