Remove ads

Il byte (pron. /ˈbait/[1]) è un'unità di misura della quantità di informazione derivata dal bit.
Il termine è derivato dall'inglese bite[2] (boccone, morso), scelto per assonanza con bit, ma variato per evitare confusioni di pronuncia.[3]

Disambiguazione – "MiB" rimanda qui. Se stai cercando il film del 1997 con Will Smith e Tommy Lee Jones, vedi Men in Black (film 1997).
Disambiguazione – "Gigabyte" rimanda qui. Se stai cercando il produttore di hardware per computer, vedi Gigabyte Technology.
Disambiguazione – Se stai cercando altri significati, vedi Byte (disambigua).
Thumb
Due schede SD con diverse capacità di archiviazione espresse in multipli del byte

Il simbolo utilizzato per il byte come unità di misura della quantità di informazione è B (identico al simbolo del bel); la lettera maiuscola sarebbe riservata alle sole unità di misura tratte dai cognomi degli ideatori, ma la Commissione Elettrotecnica Internazionale (IEC) ha deciso di fare un'eccezione dato che b è generalmente usato per indicare il bit (il cui simbolo standard sarebbe bit per esteso).

Nel tempo il byte è divenuto l'elemento base dell'indirizzabilità nelle architettura dei calcolatori e l'unità di misura delle capacità di memoria. Storicamente sistemi diversi tendevano ad utilizzare un diverso numero di bit per codificare un "singolo carattere alfanumerico"[3][4] e per questo non esisteva una definizione univoca del byte. Dal 1964 il byte si definisce come formato da 8 bit[5] ed è pertanto in grado di assumere 28 = 256 possibili valori.

Remove ads

Storia

Il termine byte è stato coniato da Werner Buchholz nel luglio 1956, all'inizio del progetto del computer IBM Stretch.[6][7] Secondo molte altre fonti, seguite anche dai dizionari, il termine byte è una sigla fatta derivare da BinarY octetTE", ovvero "ottetto binario".

Agli inizi degli anni '60 esistevano due tipi di computer: scientifici e commerciali (business). Nei computer scientifici venivano usati, per la rappresentazione dei numeri decimali, 4 bit BCD (ovvero numeri decimali codificati in binario, es. 5 = 0101, 9 = 1001), mentre nei computer commerciali venivano usati 6 bit (64 configurazioni) per rappresentare il set grafico stampabile, che comprendeva 26 caratteri alfabetici (solo maiuscole), 10 numeri, e da 11 a 25 simboli speciali (+ - * / ( > ecc.). Il set grafico stampabile per i computer scientifici era ottenuto usando due cifre consecutive (4+4 bit) e sfruttando le configurazioni non utilizzate per la codifica decimale (con 4 bit si hanno 16 configurazioni, da 0 a 9 usate per i numeri, le altre, da 10 a 15 nominate da A a F usate per i segni "+" e "-" e per distinguere caratteri da numeri). In seguito, per includere i caratteri di controllo e permettere ai dispositivi di comunicare fra loro, memorizzare, trasferire caratteri per la scrittura dei testi comprendendo i caratteri minuscoli, è stato introdotto il codice ASCII a 7 bit (128 configurazioni). Successivamente, poiché 8 bit permettevano di contenere convenientemente due cifre decimali di 4 bit ciascuna (packed decimal), venne adottato e promulgato dall'IBM il codice EBCDIC a 8 bit, cioè l'attuale byte, come codice di rappresentazione standard nei computer System/360.

Ambiguità nell'uso dei prefissi moltiplicativi

Lo stesso argomento in dettaglio: IEEE 1541.
Ulteriori informazioni Multipli del, Prefissi SI ...
Multipli del byte
Prefissi SI   Prefissi binari
NomeSimboloMultiplo NomeSimboloMultiplo
chilobytekB103 kibibyteKiB210
megabyteMB106 mebibyteMiB220
gigabyteGB109 gibibyteGiB230
terabyteTB1012 tebibyteTiB240
petabytePB1015 pebibytePiB250
exabyteEB1018 exbibyteEiB260
zettabyteZB1021 zebibyteZiB270
yottabyteYB1024 yobibyteYiB280
ronnabyteRB1027
quettabyteQB1030
Chiudi
La differenza percentuale tra le interpretazioni decimali e binarie dei multipli del Byte aumenta proporzionalmente al valore rappresentato. Questa differenza è fonte di possibili errori di calcolo soggetti ad amplificazione secondo la teoria degli errori.

Fino al 1995 erano diffuse due interpretazioni concorrenti dei prefissi moltiplicativi del Byte. In una versione essi erano basati sulle potenze di dieci, nell'altra sulle potenze di due. Queste due interpretazioni rispecchiavano esattamente quelle che ora sono rispettivamente le definizioni dei prefissi SI e dei prefissi binari per le unità di misura.

Questa ambiguità nasce in un'era in cui grandezze dell'ordine del Mega erano considerate enormi nell'immaginario comune[8] mentre quelle nell'ordine del Kilo erano decisamente più approcciabili e popolari.[9] Tenendo conto che la differenza relativa tra quantità espresse usando le due convenzioni è di appena il 2.4%, era considerata pratica accettabile in quegli anni arrotondare, per comodità di calcolo, grandezze multiple di 210 tipiche dell'informatica a multipli di 103 decisamente più intuitivi da utilizzare per gli esseri umani. Sebbene per grandezze nell'ordine del Kilo questo risultasse in errori di calcolo accettabili, certamente la stessa cosa non è affermabile per grandezze di taglia superiore.[10]

Questa doppia nomenclatura viene sfruttata a fini commerciali dai produttori di dispositivi di archiviazione, utilizzando i corretti, ma ambigui, multipli decimali, in modo tale da far figurare quantità maggiori di archiviazione; ad esempio, in un disco rigido, 80 GB di capacità dichiarata equivalgono a circa 74,5 gibibyte di capacità effettiva.

Remove ads

Note

Bibliografia

Remove ads

Voci correlate

Altri progetti

Collegamenti esterni

Remove ads

Wikiwand in your browser!

Seamless Wikipedia browsing. On steroids.

Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.

Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.

Remove ads