Nat (unità di misura)
Un nat (a volte detto anche nit o nepit) è un'unità logaritmica di informazione o entropia, basata su logaritmi naturali e potenze di e, invece che su potenze di 2 e logaritmi in base 2 che definiscono il bit.
Il nat è l'unità naturale per l'entropia dell'informazione. Sistemi fisici di unità naturali che normalizzano la costante di Boltzmann a 1 stanno effettivamente misurando l'entropia termodinamica in nat.
Quando l'entropia di Shannon viene scritta usando un logaritmo naturale,
si sta implicitamente dando un numero misurato in nat.
Origini
modificaAlan Turing utilizzò il ban naturale.[1]
Boulton e Wallace usarono il termine nit in congiunzione con la lunghezza del messaggio minimo che fu poi cambiata per la comunanza con la lunghezza di descrizione minima al nat per evitare confusione con il nit usato come un'unità di luminanza.[2]
Note
modifica- ^ Hodges, Andrew., Alan Turing : the enigma, Princeton University Press, 2014, ISBN 978-1-4008-6512-3, OCLC 893736029. URL consultato il 9 aprile 2020.
- ^ Comley and Dowe, 2005, sec. 11.4.1, p271
Bibliografia
modifica- (EN) J.W. Comley and D.L. Dowe, Minimum Message Length, MDL and Generalised Bayesian Networks with Asymmetric Languages, Chapter 11 (pp 265-294) in P. Grünwald, I. J. Myung and M. A. Pitt (eds.), `Advances in Minimum Description Length: Theory and Applications', MIT Press (ISBN 0-262-07262-9), April 2005.
- (EN) Fazlollah M. Reza. An Introduction to Information Theory. New York: Dover 1994. ISBN 0-486-68210-2