nat (jednostka) - nat (unit)
Jednostki z informacji |
Informacje teoretyczne |
---|
|
Przechowywanie danych |
|
Informacje kwantowe |
Naturalne jednostką informacji (symbol: NAT), czasami również nit lub nepit jest jednostką informacji , na podstawie logarytmów naturalnych i kompetencji e , raczej niż siłami 2 i podstawa 2 logarytmy , które definiują Shannona . Ta jednostka jest również znana pod symbolem jednostki, nat. Jeden nat to zawartość informacyjna zdarzenia, gdy prawdopodobieństwo wystąpienia tego zdarzenia wynosi 1/ e .
Jeden nat jest równy 1/w 2 shannon ≈ 1,44 Sh lub równoważnie,1/w 10 hartley ≈ 0,434 Hart.
Historia
Boulton i Wallace użyli terminu nit w połączeniu z minimalną długością wiadomości, która została następnie zmieniona przez społeczność o minimalnej długości opisu na nat, aby uniknąć pomyłek z nit używanym jako jednostka luminancji .
Alan Turing zastosował naturalny zakaz .
Entropia
Entropia Shannona ( entropia informacji), będąca oczekiwaną wartością informacji o zdarzeniu, jest wielkością tego samego typu i o takich samych jednostkach jak informacja. Międzynarodowy system jednostek przez przypisanie tych samych jednostek ( dżul na kelwin ), zarówno do ogrzania wydajności i do termodynamiczny entropii niejawnie traktuje o entropii w ilości jednego wymiaru , a 1 = 1 nat . Fizyczne układy jednostek naturalnych, które normalizują stałą Boltzmanna do 1, skutecznie mierzą entropię termodynamiczną w natach.
Kiedy entropia Shannona jest zapisana przy użyciu logarytmu naturalnego,
Uwagi
Bibliografia
Dalsza lektura
- Reza, Fazlollah M. (1994). Wprowadzenie do teorii informacji . Nowy Jork: Dover. Numer ISBN 0-486-68210-2.