nat (unidad)
La unidad natural de información (símbolo: nat),[1] a veces también nit o nepit, se utiliza para medir la información o entropía. Está basada en el logaritmo natural y en las potencias del número e, en lugar de los logaritmos de base 2 y las potencias de 2, que definen bits. Esta unidad también es conocida por su símbolo de unidad, el nat.
Unidades de Información | ||
---|---|---|
El nat es la unidad coherente para cuantificar la entropía de la información. El Sistema Internacional de Unidades, al asignar las mismas unidades (julios por kelvin) tanto a la capacidad calorífica como a la entropía termodinámica, trata implícitamente la entropía de la información como una magnitud adimensional, con 1 nat = 1. Los sistemas físicos de unidades naturales que normalizan la constante de Boltzmann a 1 están midiendo la entropía termodinámica en nats.
Cuando la entropía se especifica usando un logaritmo natural,
se está dando implícitamente un número medido en nats.
Una nat es igual a 1ln 2 shannons (o bits) ≈ 1.44 Sh o, equivalentemente, 1ln 10 hartleys ≈ 0.434 Hart.[1] Los factores 1.44 y 0.434 surgen de las relaciones
- , y
- .
Una nat es el contenido de información de un evento si la probabilidad de que ocurra ese evento es 1/e.
Historia
editarBoulton y Wallace usaron el término nit junto con mínima longitud de mensaje[2] que posteriormente fue cambiado por la comunidad científica por longitud de descripción mínima, con la sigla nat para evitar confusiones con la unidad nit, que ya era usada como unidad de luminancia.[3]
Alan Turing utilizó el ban natural.[4]
Referencias
editar- ↑ a b «IEC 80000-13:2008». Comisión Electrotécnica Internacional. Consultado el 21 de julio de 2013.
- ↑ Boulton, D. M.; Wallace, C. S. (1970). «A program for numerical classification». Computer Journal 13 (1): 63-69.
- ↑ Comley, J. W. & Dowe, D. L. (2005). «Minimum Message Length, MDL and Generalised Bayesian Networks with Asymmetric Languages». En Grünwald, P.; Myung, I. J. & Pitt, M. A., eds. Advances in Minimum Description Length: Theory and Applications. Cambridge: MIT Press. sec. 11.4.1, p271. ISBN 0-262-07262-9. Archivado desde el original el 30 de noviembre de 2010. Consultado el 3 de agosto de 2019.
- ↑ Hodges, Andrew (1983). Alan Turing: The Enigma. New York: Simon & Schuster. ISBN 0-671-49207-1. OCLC 10020685.
Lecturas adicionales
editar- Reza, Fazlollah M. (1994). An Introduction to Information Theory. New York: Dover. ISBN 0-486-68210-2.