Entropia krzyżowa

Entropia krzyżowa – wartość używana w teorii informacji[1]. Wykorzystywana do oceny nietrafności rozkładu względem drugiego rozkładu hipotetycznie prawdziwego[2].

Definicja

Wzór na entropię krzyżową dyskretnej zmiennej losowej X {\displaystyle X} o zbiorze wartości { x 1 , x 2 , . . . , x n } {\displaystyle \{x_{1},x_{2},...,x_{n}\}} i zdefiniowanych na nich rozkładach prawdopodobieństw p {\displaystyle p} i q {\displaystyle q} [1]:

H ( p , q , X ) = i = 1 n p ( x i ) log q ( x i ) . {\displaystyle H(p,q,X)=-\sum _{i=1}^{n}p(x_{i})\log {q(x_{i})}.}

Interpretując entropię krzyżową jako miarę nietrafności, za p {\displaystyle p} przyjmuje się rozkład traktowany jako prawdziwy, a za q {\displaystyle q} rozkład oceniany[2].

Własności

Ponieważ[2]

H ( p , q ) = i = 1 n p ( x i ) log q ( x i ) = i = 1 n p ( x i ) log p ( x i ) i = 1 n p ( x i ) log q ( x i ) p ( x i ) , {\displaystyle H(p,q)=-\sum _{i=1}^{n}p(x_{i})\log {q(x_{i})}=-\sum _{i=1}^{n}p(x_{i})\log {p(x_{i})}-\sum _{i=1}^{n}p(x_{i})\log {\frac {q(x_{i})}{p(x_{i})}},}

entropię krzyżową można interpretować jako sumę entropii dla rzeczywistego rozkładu prawdopodobieństa p {\displaystyle p} oraz miary dywergencji Kullbacka-Leiblera między p {\displaystyle p} i q {\displaystyle q} [2]:

H ( p , q ) = H ( p ) + d K L ( p , q ) . {\displaystyle H(p,q)=H(p)+d_{KL}(p,q).}

Traktując entropię krzyżową jako nietrafność q {\displaystyle q} względem p , {\displaystyle p,} można traktować ją jako sumę nietrafności związanej z niepewnością H ( p ) {\displaystyle H(p)} i nietrafności związanej z błędem q {\displaystyle q} względem p {\displaystyle p} [2].

Przypisy

  1. a b I.J.I.J. Good I.J.I.J., Some terminology and notation in information theory, „Proceedings of the IEE - Part C: Monographs”, 103 (3), 1956, s. 200–204, DOI: 10.1049/pi-c.1956.0024 .
  2. a b c d e D.F.D.F. Kerridge D.F.D.F., Inaccuracy and Inference, „Journal of the Royal Statistical Society. Series B (Methodological)”, 37 (1), 1961, s. 184–194, DOI: 10.2307/2983856, JSTOR: 2983856 .