bit

Contrazione della locuzione inglese binary digit, rappresenta l’unità di misura del contenuto di informazione di un dato o di un messaggio. Il termine bit viene impiegato con significati leggermente diversi a seconda che esso si riferisca al campo dell’informatica o a quello della teoria dell’informazione. Più precisamente, in informatica, si definisce bit un simbolo del sistema binario (0 oppure 1) associato tipicamente al valore assunto dalla porta logica che lo ha generato. Nei circuiti digitali, infatti, i segnali sono normalmente disponibili in sole due condizioni: basso o alto, carico o scarico, acceso o spento. A tali valori vengono associati i valori logici 0 e 1.
Per estendere l’uso dell’unità binaria sono state introdotte grandezze che raggruppano un numero di stringhe binarie pari a una potenza in base 2. I più importanti sono detti nibble (4 bit), byte (8 bit) e word (16, 32 o 64 bit a seconda dell’architettura). Dal punto di vista della teoria dell’informazione (introdotta da Claude Shannon negli anni Quaranta del secolo scorso), un bit rappresenta la possibilità di scelta tra due alternative equiprobabili, cui vengono associati i simboli numerici 0 e 1. Il bit è anche impiegato per valutare la capacità di informazione. In tal caso l’unità di misura della velocità di trasmissione delle informazioni è il bit per secondo (bit/s).
Treccani - Enciclopedia della Scienza e della Tecnica - 2008

     ● PDF, Microsoft Excel, programmazioni e altro

    ● .doc .docx .jpg .xls .xlsx . . . . . formati ed estensioni (un labirinto?)

 

 

 

© xigro (P.Biundo) 2008 ~ 2013