Bit
quantità minima di informazione necessaria a discernere tra due possibili eventi equiprobabili / Da Wikipedia, l'enciclopedia encyclopedia
Caro Wikiwand AI, Facciamo breve rispondendo semplicemente a queste domande chiave:
Puoi elencare i principali fatti e statistiche su Yottabit?
Riassumi questo articolo per un bambino di 10 anni
In informatica e nella teoria dell'informazione, il bit è l'unità standard di misura dell'entropia, meglio nota come quantità di informazione.[1]
Il nome è una parola macedonia dei termini inglesi "binary" (binario) e "digit" (cifra).[2] Per questo motivo il termine bit viene colloquialmente utilizzato come sinonimo di cifra binaria, che però formalmente è un concetto distinto.[3] Complice delle occasionali confusioni tra bit e cifra binaria è anche il fatto che quest'ultima codifica esattamente 1 bit di informazione.
Il concetto di bit è stato introdotto nel 1948 da Claude Shannon, fondando la teoria dell'informazione.[4][5] In seguito furono proposti alcuni nomi alternativi come Binit e Bigit, che tuttavia non sono mai entrati nell'uso comune.[6] Nonostante la loro impopolarità questi termini compaiono occasionalmente in vari scritti come sinonimo di Bit.[7]