El terabyte es la unidad de almacenamiento digital equivalente a 1024 gigabytes; a su vez, esto supone un millón de megabytes y mil millones de kilobytes. Es un término que se utiliza en informática, en todos los ámbitos. Se representa con las letras TB, siempre en mayúscula.
Actualmente está cobrando popularidad debido al gran avance en materia de hardware: los discos duros de los ordenadores ya vienen con un terabyte de capacidad. El término se confirmó como parte de las medidas informáticas en 1960, y el prefijo que se eligió, “tera”, proviene del idioma griego clásico y significa “monstruo” (en clara alusión a una cantidad de información cuya magnitud no se atrevían a soñar en aquella época).
Un Gigabyte es una unidad de medida aproximadamente igual a 1 billón de bytes. El gigabyte se utiliza para cuantificar memoria o capacidad de disco. Un gigabyte es igual a 1,000MB (realmente 1.024 megabytes)
Un Gigabyte es una unidad de medida aproximadamente igual a 1 billón de bytes. El gigabyte se utiliza para cuantificar memoria o capacidad de disco. Un gigabyte es igual a 1,000MB (realmente 1.024 megabytes)
El megabyte (MB) o megaocteto (Mo) es una
unidad de medida de cantidad de datos informáticos. Es un múltiplo del byte u octeto, que equivale a 106 B (un millón de bytes).
Por otro
lado, al igual que el resto de prefijos del SI, para la informática muchas
veces se confunde el megabyte con 220 B, cantidad que según normativa IEC
60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional debe ser denominada mebibyte.
Kilobyte es una unidad de almacenamiento de información cuyo
símbolo es el kB (con la 'k' en minúsculas) y equivale
a 103 bytes. Aunque el
prefijo griego kilo- (χίλιοι) significa mil, el término kilobyte y el símbolo kB se han utilizado históricamente para
hacer referencia tanto a 1024 (210) bytes como a 1000 (103)
bytes, dependiendo del contexto, en los campos de la informática y de la tecnología de la información.1 2 3
Para
solucionar esta confusión, la Comisión Electrotécnica Internacional publicó en 1998 un apéndice al estándar IEC 60027-2 donde se instauraban los prefijos
binarios, naciendo la unidadkibibyte para designar 210 bytes y considerándose el uso de la palabra kilobyte no válido a dichos efectos.
Byte Se usa
comúnmente como unidad básica de almacenamiento de datos en combinación con los prefijos de
cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño
de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que
empezó en los años 1960 y la
explosión de las microcomputadoras basadas
enmicroprocesadores de
8 bits en los años 1980 ha
hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un
sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en
definiciones de protocolos).
La unidad byte no tiene símbolo establecido
internacionalmente, aunque en países anglosajones es frecuente la "B"
mayúscula, mientras que en los francófonos es la "o" minúscula (de octet); laISO y la IEC en la norma 80000-13:2008 recomiendan
restringir el empleo de esta unidad a los octetos (bytes de 8 bits).
Bit es el acrónimo Binary
digit. (dígito binario). Un bit es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se
usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar
uno de esos dos valores, 0 ó1.
Se puede imaginar un bit, como una bombilla que
puede estar en uno de los siguientes dos estados:
El bit es la unidad mínima de
información empleada en informática, en cualquier dispositivo digital, o en la teoría
de la información. Con él, podemos representar dos valores cuales
quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur,
masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores
al estado de "apagado" (0), y el otro al estado de
"encendido" (1).
GRACIAS...






No hay comentarios:
Publicar un comentario