¿Cuál es la unidad básica de información de las computadoras?
A la unidad básica de información en una computadora se le llama bit, abreviación de Binary Digit (dígito binario). Con un bit se puede representar solo un valor de dos posibles valores diferentes; por ejemplo: cero o uno, falso o verdadero, blanco o negro, abajo o arriba, no o sí, etc.
El bit, en otras palabras, es un dígito que forma parte del sistema binario. A diferencia del sistema decimal, que utiliza diez dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8 y 9), el sistema binario apela a solo dos (0 y 1).
La palabra bit fue utilizada por primera vez en la década de los 30, sorprendentemente, para designar partes de información (bits of information). Sin embargo, la definición de bit fue empleada en 1948 por el ingeniero Claude Shannon. Aquel año, Shannon elaboró el artículo «A Mathematical Theory of Communication» (Una Teoría Matemática de la Comunicación) y usó la palabra para designar el dígito binario.
Pero sin lugar a dudas, el tipo de datos más importante para los microprocesadores es el byte. Un byte consta de 8 bits. Las referencias hacia cierta localidad de memoria en todos los microprocesadores nunca es menor que un byte (la mayoría usan múltiplos de bytes), por lo tanto, se considera el dato localizable (direccionable) más pequeño.
En la actualidad, cuando se trabaja con unidades de almacenamiento, se utilizan múltiplos del byte, los cuales de seguro utilizan con mucha frecuencia, como los Kilobytes, Megabytes, Gigabytes y Terabytes.
Más información:
es.wikipedia.org
ANUNCIO