Logo
Uniopèdia
Comunicació
Disponible a Google Play
Nou! Descarregar Uniopèdia al dispositiu Android™!
Descarregar
Accés més ràpid que el navegador!
 

Nat (unitat)

Índex Nat (unitat)

Un nat (a vegades també anomenat com a nit o fins i tot nepit) és una unitat logarítmica d'informació o d'entropia basada en el logaritme natural i les potències de base e en lloc de basar-se en el logaritme de base 2 usat per a definir el bit.

11 les relacions: Alan Turing, Ban, Bit, Chris Wallace, Constant de Boltzmann, Entropia, Entropia de Shannon, Hartley, Logaritme binari, Logaritme natural, Nombre e.

Alan Turing

Alan Mathison Turing (Maida Vale, 23 de juny de 1912 - Wilmslow, 7 de juny de 1954) fou un científic, matemàtic, lògic, criptoanalista, biomatemàtic i maratonià britànic.

Nou!!: Nat (unitat) і Alan Turing · Veure més »

Ban

* Ban (dret), poder que tenien els reis germànics d'obligar i de castigar.

Nou!!: Nat (unitat) і Ban · Veure més »

Bit

Un bit —simbolitzat habitualment com a b, de l'anglès, binary digit, "dígit binari"— és la unitat d'informació mínima utilitzada en Informàtica i en teoria de la informació.

Nou!!: Nat (unitat) і Bit · Veure més »

Chris Wallace

Christopher W. Wallace (12 d'octubre de 1947) és un presentador de televisió i periodista estatunidenc que presenta el programa dominical de Fox News Fox News Sunday.

Nou!!: Nat (unitat) і Chris Wallace · Veure més »

Constant de Boltzmann

La constant de Boltzmann (k o kB) és la constant física que relaciona la temperatura i l'energia.

Nou!!: Nat (unitat) і Constant de Boltzmann · Veure més »

Entropia

Rudolf Clausius L'entropia és una magnitud termodinàmica definida originàriament com a criteri per a predir l'evolució dels sistemes termodinàmics.

Nou!!: Nat (unitat) і Entropia · Veure més »

Entropia de Shannon

Dos bits d'entropia: en el cas de llançar a l'aire dues monedes justes, l'entropia d'informació en bits és el logaritme en base 2 del nombre de possibles resultats; amb dues monedes hi ha quatre possibles resultats, i dos bits d'entropia. En general, l'entropia d'informació és la quantitat mitjana d'informació que es transmet en un esdeveniment, considerant-ne tots els possibles resultats. Lentropia de Shannon, (formulada per Claude Shannon) (archived from) (archived from) és una funció matemàtica que intuïtivament es correspon amb la quantitat d'informació continguda o lliurada per una font d'informació.

Nou!!: Nat (unitat) і Entropia de Shannon · Veure més »

Hartley

* Toponímia.

Nou!!: Nat (unitat) і Hartley · Veure més »

Logaritme binari

Gràfica del log₂ ''n'' En matemàtiques, el logaritme binari (log₂ n) és el logaritme en base 2.

Nou!!: Nat (unitat) і Logaritme binari · Veure més »

Logaritme natural

El logaritme neperià, logaritme natural o logaritme hiperbòlic és el logaritme en base e, on e és un nombre irracional que val 2.718281828459045...

Nou!!: Nat (unitat) і Logaritme natural · Veure més »

Nombre e

1.

Nou!!: Nat (unitat) і Nombre e · Veure més »

Redirigeix aquí:

Nat (Informació), Nat (informació), Nat (unitat d'informació).

SortintEntrant
Hey! Estem a Facebook ara! »