memory binary storage

memory - Gigabyte o Gibibyte(1000 o 1024)?



binary storage (3)

El término gigabyte se usa comúnmente para referirse a 1000 3 bytes o 1024 3 bytes, según el contexto. Los fabricantes de discos prefieren el término decimal mientras que los fabricantes de memoria usan el binario.

Definición decimal

  • 1 GB = 1,000,000,000 de bytes (= 1000 3 B = 10 9 B)

Con base en potencias de 10, esta definición usa el prefijo como se define en el Sistema Internacional de Unidades (SI). Esta es la definición recomendada por la Comisión Electrotécnica Internacional (IEC). Esta definición se usa en contextos de redes y en la mayoría de los medios de almacenamiento, particularmente discos duros, almacenamiento basado en flash y DVD, y también es coherente con los otros usos del prefijo SI en informática, como velocidades de reloj de CPU o medidas de rendimiento.

Definición binaria

  • 1 GiB = 1,073,741,824 bytes (= 1024 3 B = 2 30 B).

La definición binaria usa poderes de la base 2, como es el principio arquitectónico de las computadoras binarias. Este uso se promulga ampliamente en algunos sistemas operativos, como Microsoft Windows, en referencia a la memoria de la computadora (por ejemplo, RAM). Esta definición es sinónimo de unidad inequívoca gibibyte.

La diferencia entre unidades basadas en prefijos decimales y binarios aumenta como una función semilogarítmica (registro lineal); por ejemplo, el valor del kilobyte decimal es casi el 98% del kibibyte, un megabyte está por debajo del 96% de un mebibyte y un gigabyte es un poco más del 93% de un valor de gibibyte. Esto significa que un disco duro de 300 GB (279 GiB) se puede indicar de varias formas como 300 GB, 279 GB o 279 GiB, dependiendo del sistema operativo.

El artículo de Wikipedia https://en.wikipedia.org/wiki/Gigabyte tiene una buena descripción de la confusión que rodea el uso del término

Esto puede ser un duplicado y me disculpo si es así, pero realmente quiero una respuesta definitiva, ya que parece cambiar según mi aspecto.

¿Es aceptable decir que un gigabyte es 1024 megabytes o debería decirse que es 1000 megabytes? Estoy tomando ciencias de la computación en GCSE y una pregunta de examen típica podría ser cuántos bytes hay en un kilobyte y creo que el examen, AQA, tiene la respuesta para una pregunta como 1024, no 1000. ¿Cómo es esto? ¿Ambos son correctos? ¿Con cuál debería ir?

Gracias de antemano, ¡esto me ha engañado bastante!


La triste realidad es que depende de a quién le preguntes. Pero la terminología informática se está alineando lentamente con la terminología normal, en la que kilo es 10 3 (1,000), mega es 10 6 (1,000,000) y giga es 10 9 (1,000,000,000).

Esto se refleja en el Sistema Internacional de Cantidades y la Comisión Electrotécnica Internacional, que define gigabyte como 10 9 y usa gibibyte para el valor específico de 1024 x 1024 x 1024.

La razón por la que "depende de a quién se pregunte" es que durante muchos años, específicamente en relación con los "bytes" de almacenamiento, los prefijos kilo, mega y giga significan 1024, 1024 2 y 1024 3 . Pero eso va en contra de la convención normal con respecto a estos prefijos. Entonces, de nuevo, la terminología de la computadora se está alineando con la terminología no computacional.


Sí, es un poco confuso pero un Gigabyte es realmente 1024 MegaBytes pero ahora está confundido, como en la mayoría de los casos, como por ejemplo, un disco duro de 500 GB tiene en realidad alrededor de 450 Gigabytes de espacio que se debe a diferentes significados de GB inferidos por diferentes algunos fabricantes lo consideran 1000 o 1048 u otra cantidad específica de MB. Creo que debería elegir 1024 Mbs como respuesta.