¿Qué significa megabyte?
Un megabyte (MB) equivale a un millón de bytes en el SI, pero también puede significar 1.048.576 bytes en computación. Aprende sobre las distintas definiciones y convenciones.
El megabyte es una unidad de información digital, denotada por el símbolo MB. En el Sistema Internacional de Unidades (SI), el prefijo ‘mega’ representa un multiplicador de 1.000.000 (10^6). Por tanto, un megabyte equivale a un millón de bytes de información, y esta definición ahora forma parte del Sistema Internacional de Magnitudes.
Sin embargo, en los campos de la informática y la tecnología de la información se han usado definiciones alternativas por conveniencia histórica. Un uso habitual designa un megabyte como 1.048.576 bytes (2^20 B), que encaja con la arquitectura binaria de la memoria de las computadoras digitales. Los organismos de estandarización han desaprobado esta definición en favor de un nuevo conjunto de prefijos binarios. La unidad ‘mebibyte’ (MiB) se usa ahora para representar esa cantidad concreta de 1.048.576 bytes.
Si quieres una explicación más detallada sobre la diferencia entre un mebibyte y un megabyte, mira este artículo: What is the difference between MB and MiB?
Definiciones
La unidad ‘megabyte’ se usa habitualmente para referirse a dos cantidades distintas: 1.000.000 bytes o 1.048.576 bytes. Esta segunda interpretación, basada en el uso de la base 1024, surgió como jerga técnica para representar múltiplos de bytes usando potencias de 2 sin un término específico. Como 1024 está cerca de 1000, que coincide con el prefijo SI ‘kilo-’, se convirtió en una forma cómoda de denotar el múltiplo binario.
En 1998, la Comisión Electrotécnica Internacional (IEC) propuso prefijos binarios, introduciendo ‘megabyte’ para 1.000.000 bytes y ‘mebibyte’ para 1.048.576 bytes. Estos estándares fueron adoptados después por diversas organizaciones, entre ellas IEEE, UE, ISO y NIST. Sin embargo, a pesar de estas definiciones estandarizadas, el término ‘megabyte’ sigue usándose ampliamente con distintos significados.
En la convención de base 10, 1 MB equivale a 1.000.000 bytes, siguiendo las reglas del Sistema Internacional de Unidades (SI) y de la IEC. Esta definición se usa habitualmente en contextos de redes informáticas y soportes de almacenamiento como discos duros, almacenamiento basado en flash y DVD. Es coherente con otros usos de prefijos SI en computación, como las frecuencias de reloj de la CPU y las medidas de rendimiento.
Por otro lado, en la convención de base 2, 1 MB equivale a 1.048.576 bytes, especialmente en el contexto de la memoria del ordenador, como la RAM. Esta definición es sinónima de la unidad binaria inequívoca ‘mebibyte’. Según esta convención, 1 GB equivale a 1.024 MB (1.024^3 bytes), donde ‘GB’ significa gigabyte.
También hay una convención mixta en la que 1 MB se considera 1.024.000 bytes (1.000 × 1.024 bytes). Esta definición se usa para describir la capacidad formateada de los disquetes HD de 3,5 pulgadas de 1,44 MB, aunque su capacidad real es de 1.474.560 bytes.
En resumen, el término ‘megabyte’ puede tener diferentes significados según el contexto y la convención utilizada: 1.000.000 bytes (base 10) o 1.048.576 bytes (base 2).
Comments
Sign in with GitHub to comment. Reactions and replies thread back to the comments repo.