Bit

Un bit es una unidad estándar que se utiliza para medir información o datos en la comunicación computacional y digital.[1] Permite la precisión en los sistemas informáticos al presentar sólo 2 valores opcionales: 0, 1. Esto se denomina sistema de valores binarios. Debido a esto, las señales digitales son capaces de mantener niveles precisos de integridad incluso con interrupciones de ruido o de señal, a diferencia de lo que ocurre en las transmisiones de datos analógicos. Un solo bit presenta sólo 2 estados posibles, pero esto se duplica por cada bit añadido al sistema. 2 bits permiten 4 estados, 3 bits permiten 8 estados, 4 bits permiten 16 estados, y así sucesivamente.

Los bits se agrupan ahora a menudo en grupos de 8, un grupo conocido como byte.[2] La mitad de un byte o 4 bits de datos se conoce como un mordisco.[3] Mientras que el mordisco no se utiliza a menudo como una unidad de medida común para los datos, los bits y los bytes a veces se intercambian erróneamente. Un byte contiene 8 bits y se muestra como una unidad de medida cuando se presenta una "B" mayúscula. Un bit es la unidad de datos más pequeña y se representa con una letra minúscula "b",

Historia

La conceptualización de una unidad para medir la información fue introducida por --Claude Shannon en 1948.[4] Trabajando en Bell Labs en la década de 1940, publicó un artículo de dos partes en la revista Bell Systems Technical Journal, July and October Publications de 1948, titulado "A Mathematical Theory of Communication".[5] Estos conceptos fundaron la Teoría de la Información que se centró en la cuantificación, almacenamiento y aplicaciones en la comunicación de información o datos.[6] Esto revolucionó el concepto de datos en la tecnología, ya que antes se consideraba como flujos, pulsos y ondas transmitidos a través de señales analógicas, que se veían interrumpidos por el ruido y las interferencias de conexión, lo que conducía a una transmisión inexacta y errónea de los datos.

Según Shannon, "la información de una señal está totalmente separada del significado del mensaje". Tomando prestado el término "bit", John Tukey, su colega de trabajo en Bell Labs que contrató el término dígito[7] binario, Shannon describió el uso de los bits para representar dos estados posibles, sentando así las bases de la teoría de la información. A Shannon se le conoce como el "padre de la teoría de la información" y, a veces, como el "padre del bit".

Funcionalidad

En los dispositivos modernos, los bits suelen ser leídos por diferentes estados en la tensión eléctrica, el pulso de corriente o el estado eléctrico de un circuito flip-flop. El término "bits por segundo" (bps) se utiliza para medir la velocidad a la que se transfieren los datos de Internet.[8] Aunque esto también se puede indicar en "bytes por segundo" (Bps), la mayoría de los proveedores de servicios de Internet utilizan bps. Los"bits" también se utilizan comúnmente para presentar las capacidades del procesador. Sin embargo, en términos de almacenamiento de datos, a menudo se utilizan "bytes".

Unidades

Un bit puede ser usado para mostrar cuánta información está presente o cuánta información es capaz de almacenar un dispositivo. Bits por segundo (bps) muestra la velocidad de transferencia de datos. Sin embargo, el bit no se utiliza a menudo solo, sino que está prefijado con prefijos métricos como Kilo-, Mega-, Giga-, y Tera- que se utilizan para mostrar cantidades cada vez mayores de información.[9]

Unidad prefijada Equivalente en bits
Kilobit (Kb) (1000^1)1.000 bits
Megabit (Mb) (1000^2)1.000.000 bits
Gigabit (Gb) (1000^3)1.000.000.000.000 bits
Terabit (Tb) (1000^4)1.000.000.000.000.000 bits

Para un volumen de información aún mayor, también se pueden utilizar Peta-, Exa-, Zetta-, y Yotta-. Cada uno con un poder superior, Yottabits puede referirse a más de 1.000.000.000.000.000.000.000.000.000 de bits. Sin embargo, los datos se miden normalmente en bytes. Estos prefijos también se utilizan para preceder a los bytes para denotar los mismos incrementos - Kilobyte (1000 bytes), Megabyte (1.000.000 bytes), y así sucesivamente. Los datos en todo el Internet ni siquiera han llegado a estos números, con Cisco señalando que acabamos de entrar en la era Zettabyte en 2016.[10] Se trata de números a gran escala que sólo pueden encontrarse cuando se utilizan en grandes industrias informáticas, más comunes en el uso diario son Gb, Mb, Kb.

Los mismos prefijos se utilizan para mostrar velocidades más rápidas de transmisión de datos y dan como resultado velocidades medidas como Kbps, Mbps, Gbps, etc. La tecnología moderna ahora puede proporcionar velocidades de datos de casi 100 Gbps en áreas altamente desarrolladas, pero la mayoría de los hogares aún conservan velocidades de Internet más lentas, con una velocidad media de Internet por debajo de los 10 Mbps.[11]


  1. https://techterms.com/definition/bit ↩︎

  2. https://techterms.com/definition/byte ↩︎

  3. https://www.computerhope.com/jargon/n/nibble.htm ↩︎

  4. https://www.newyorker.com/tech/annals-of-technology/claude-shannon-the-father-of-the-information-age-turns-1100100 ↩︎

  5. https://www.itsoc.org/about/shannon ↩︎

  6. https://www.scientificamerican.com/article/claude-e-shannon-founder/ ↩︎

  7. https://www.bell-labs.com/claude-shannon/ ↩︎

  8. https://www.edrm.net/glossary/bits-per-second/ ↩︎

  9. https://www.gordonengland.co.uk/conversion/binary.htm ↩︎

  10. https://www.forbes.com/sites/ericsavitz/2012/05/30/cisco-predicts-the-rise-of-the-zettabyte-era/#19259b96 ↩︎

  11. https://www.atlasandboots.com/remote-jobs/countries-with-the-fastest-internet-in-the-world/ ↩︎