Entropia condicional

L'entropia condicional és una extensió del concepte d'entropia de la informació en processos on intervenen diverses variables aleatòries no necessàriament independents.[1]

Definició

Suposem que X {\displaystyle \scriptstyle X} és una variable aleatòria sobre un espai de probabilitat Ω {\displaystyle \scriptstyle \Omega \,} i A Ω {\displaystyle \scriptstyle A\subset \Omega } sigui un esdeveniment. si X {\displaystyle \scriptstyle X} pren valors sobre un conjunt finit { a i | 1 i m } {\displaystyle \scriptstyle \{a_{i}|1\leq i\leq m\}} , Es defineix de manera natural l'entropia condicional de X {\displaystyle \scriptstyle X} donat A {\displaystyle \scriptstyle A} com:[2]

H ( X | A ) = k = 1 m P ( X = a k | A ) ln P ( X = a k | A ) {\displaystyle H(X|A)=\sum _{k=1}^{m}P(X=a_{k}|A)\ln P(X=a_{k}|A)}

De la mateixa manera si Y {\displaystyle \scriptstyle Y} és una altra variable aleatòria que pren valors b k {\displaystyle \scriptstyle b_{k}} es defineix l'entropia condicional H ( X | Y ) {\displaystyle \scriptstyle H(X|Y)} com:

H ( X | Y ) = j H ( X | Y = b j ) P ( Y = b j ) {\displaystyle H(X|Y)=\sum _{j}H(X|Y=b_{j})P(Y=b_{j})}

Es pot interpretar l'anterior magnitud com la incertesa de X {\displaystyle \scriptstyle X} donat un valor particular de Y {\displaystyle \scriptstyle Y} , Amitjanat per tots els valors possibles de Y {\displaystyle \scriptstyle Y} ..

Propietats[3]

  • Trivialment s'esdevé que H ( X | X ) = 0 {\displaystyle \scriptstyle H(X|X)=0}
  • H ( X | Y ) = H ( X ) {\displaystyle \scriptstyle H(X|Y)=H(X)} si X {\displaystyle \scriptstyle X} i Y {\displaystyle \scriptstyle Y} són variables independents.
  • Donades dues variables que prenen un conjunt finit de valors: H ( X , Y ) = H ( Y ) + H ( X | Y ) = H ( X ) + H ( Y | X ) {\displaystyle \scriptstyle H(X,Y)=H(Y)+H(X|Y)=H(X)+H(Y|X)}
  • Com a conseqüència de l'anterior i que H ( X , Y ) H ( Y ) + H ( X ) {\displaystyle \scriptstyle H(X,Y)\leq H(Y)+H(X)} , Es té: H ( X | Y ) H ( X ) {\displaystyle \scriptstyle H(X|Y)\leq H(X)} .

Vegeu també

  • Entropia de Shannon

Referències

  1. «Probability of error, equivocation, and the Chernoff bound». IEEE Transactions on Information Theory, 16, 4, 1970.
  2. «David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book».
  3. T. Cover; J. Thomas Elements of Information Theory, 1991. ISBN 0-471-06259-6. 

Bibliografia

  • Dominic Welsh (1988): Codes and Cryptography, Clarendon Press, Oxford, ISBN 0-19-853287-3