Bit

Un bit è un'unità standard utilizzata per misurare informazioni o dati nella comunicazione computazionale e digitale.[1] Permette una precisione nei sistemi di calcolo presentando solo 2 valori opzionali: 0, 1. Questo è indicato come il sistema di valori binari. Grazie a ciò, i segnali digitali sono in grado di mantenere accurati livelli di integrità anche in caso di disturbi o interruzioni del segnale, a differenza di quanto accade nelle trasmissioni di dati analogici. Un singolo bit presenta solo 2 stati possibili, ma questo viene raddoppiato per ogni bit aggiunto al sistema. 2 bit permettono 4 stati, 3 bit permettono 8 stati, 4 bit permettono 16 stati e così via.

I bit sono ora spesso riuniti in gruppi di 8, un cluster noto come byte.[2] Per mezzo byte o 4 bit di dati si parla di un bocconcino.[3] Mentre il nibble non è spesso usato come unità di misura comune per i dati, i bit e i byte sono talvolta scambiati erroneamente. Un byte contiene 8 bit e viene mostrato come unità di misura quando viene presentato un capitale "B". Un bit è l'unità di dati più piccola ed è rappresentato da una piccola lettera "b",

Storia

La concettualizzazione di un'unità di misura delle informazioni è stata introdotta da --Claude Shannon nel 1948.[4] Lavorando nei laboratori Bell Labs negli anni '40, ha pubblicato un documento in due parti sul Bell Systems Technical Journal, luglio e ottobre 1948, intitolato "A Mathematical Theory of Communication".[5] Questi concetti hanno fondato la teoria dell'informazione che si è concentrata sulla quantificazione, la memorizzazione e le applicazioni nella comunicazione di informazioni o dati.[6] Questo ha rivoluzionato il concetto di dati nella tecnologia come era allora, in precedenza, visto come flussi, impulsi e onde trasmesse attraverso segnali analogici, che è stato interrotto da rumore e interferenze di connessione che portavano a una trasmissione dei dati imprecisa ed errata.

Secondo Shannon "Le informazioni in un segnale sono del tutto separate dal significato del messaggio". Prendendo in prestito il termine "bit", da John Tukey, il suo collega di lavoro ai Bell Labs che ha contratto il termine cifra[7] binaria, Shannon ha descritto l'uso di bit per rappresentare 2 stati possibili, ponendo così le basi della teoria dell'informazione. Shannon è indicato come il "Padre della teoria dell'informazione" e, a volte, il "Padre della punta".

Funzionalità

Nei dispositivi moderni, i bit sono spesso letti da stati diversi per quanto riguarda la tensione elettrica, l'impulso di corrente o lo stato elettrico di un circuito flip-flop. Il termine "bits per second" (bps) è usato per misurare la velocità di trasferimento dei dati Internet.[8] Mentre questo può anche essere indicato in "byte al secondo" (Bps), la maggior parte dei fornitori di servizi Internet utilizza i bps. I "Bit" sono anche comunemente usati per presentare le capacità del processore. Tuttavia, in termini di memorizzazione dei dati, spesso si utilizzano invece i "byte".

Unità

Un bit può essere utilizzato sia per mostrare quante informazioni sono presenti o quante informazioni sono in grado di memorizzare un dispositivo. I bit al secondo (bps) indicano la velocità di trasferimento dati. Tuttavia, il bit non viene spesso usato da solo, ma viene invece prefisso con prefissi metrici come Kilo-, Mega-, Mega-, Giga-, Giga-, e Tera- che vengono utilizzati per mostrare quantità sempre maggiori di informazioni.[9]

Unità prefissata Equivalente in bit
Kilobit (Kb) (1000^1)1.000 bit
Megabit (Mb) (1000^2)1.000.000.000 di bit
Gigabit (Gb) (1000^3)1.000.000.000.000.000.000 bit
Terabit (Tb) (1000^4)1,000,000,000,000,000,000,000,000 bit

Per informazioni ancora più grandi, si possono usare anche Peta-, Exa, Zetta-, Zetta-, e Yotta-. Ognuno con una potenza superiore, Yottabits può riferirsi a oltre 1.000.000.000.000.000.000.000.000.000.000.000.000 bit. Tuttavia, i dati sono solitamente misurati in byte. Questi prefissi sono usati anche per precedere i byte per indicare gli stessi incrementi - Kilobyte (1000 byte), Megabyte (1.000.000.000 byte), e così via. I dati di tutta la rete non hanno nemmeno raggiunto questi numeri, con Cisco che ha notato che siamo appena entrati nell'era Zettabyte nel 2016.[10] Si tratta di numeri di grandi dimensioni che si possono trovare solo se utilizzati nelle grandi industrie informatiche, più comuni all'uso quotidiano sono Gb, Mb, Kb.

Gli stessi prefissi sono usati per mostrare velocità di trasmissione dati più rapide e risultare in velocità misurate come Kbps, Mbps, Gbps, Gbps, e così via. La moderna tecnologia può ora fornire velocità di trasmissione dati di quasi 100 Gbps in aree altamente sviluppate, ma la maggior parte delle famiglie mantiene ancora velocità di internet più basse, con una velocità media di internet inferiore a 10 Mbps.[11]


  1. https://techterms.com/definition/bit ↩︎

  2. https://techterms.com/definition/byte ↩︎

  3. https://www.computerhope.com/jargon/n/nibble.htm ↩︎

  4. https://www.newyorker.com/tech/annals-of-technology/claude-shannon-the-father-of-the-information-age-turns-1100100 ↩︎

  5. https://www.itsoc.org/about/shannon ↩︎

  6. https://www.scientificamerican.com/article/claude-e-shannon-founder/ ↩︎

  7. https://www.bell-labs.com/claude-shannon/ ↩︎

  8. https://www.edrm.net/glossary/bits-per-second/ ↩︎

  9. https://www.gordonengland.co.uk/conversion/binary.htm ↩︎

  10. https://www.forbes.com/sites/ericsavitz/2012/05/30/cisco-predicts-the-rise-of-the-zettabyte-era/#19259b96 ↩︎

  11. https://www.atlasandboots.com/remote-jobs/countries-with-the-fastest-internet-in-the-world/ ↩︎