Nat (někdy se nazývá také nit nebo nepit ) je logaritmická jednotka měření informací nebo entropie , na základě Neperian logaritmu a pravomoc e spíše než základ-2 logaritmu, která definuje bit . Nat je přirozená jednotka pro entropii v teorii informací. Systémy přirozených jednotek, které standardizují Boltzmannovu konstantu na 1, ve skutečnosti měří entropii v nats. Když je Shannonova entropie dána přirozeným logaritmem ,
implicitně dává hodnotu v nats. Nat je přibližně 1,44 bitů (přesně ) nebo 0,434 zákazů ( ).
Alan Turing využil zákazu . Boulton a Wallace (1970) použili termín nit pro minimální délku zprávy, který byl později nahrazen nat, aby nedošlo k záměně s nit jako jednotkou jasu.