Entropia incrociata

Nella teoria dell'informazione, l'entropia incrociata (o cross-entropia) fra due distribuzioni di probabilità e , relative allo stesso insieme di eventi, misura il numero medio di bit necessari per identificare un evento estratto dall'insieme nel caso sia utilizzato uno schema ottimizzato per una distribuzione di probabilità piuttosto che per la distribuzione vera .

Definizione modifica

L'entropia incrociata della distribuzione   relativamente alla distribuzione   è definita come

 .

Se   e   sono distribuzioni di probabilità discrete la precedente assume la forma

 ,

che facendo uso della divergenza di Kullback-Leibler può anche essere riespressa come

 

dove   è l'entropia della distribuzione di probabilità  .

In alcuni contesti l'entropia incrociata viene anche indicata come  , ma tale scelta può creare confusione in quanto adottata anche per denotare l'entropia congiunta delle due distribuzioni di probabilità   e  .


Proprietà modifica

Grazie alla disuguaglianza di Jensen si può mostrare la non-negatività della divergenza di Kullback-Leibler; da questo risultato segue la disuguaglianza

 ,

in cui l'uguaglianza è soddisfatta per  . Inoltre, poiché  , segue anche   per ogni   e  .

Note modifica


Bibliografia modifica

  • Thomas M. Cover, Joy A. Thomas, Elements of Information Theory, 2012.