Was bedeutet Megabyte?
Ein Megabyte (MB) entspricht im SI-System einer Million Byte, kann aber in der Informatik auch 1.048.576 Byte bedeuten. Lernen Sie die verschiedenen Definitionen und Konventionen kennen.
Das Megabyte ist eine Einheit für digitale Information, gekennzeichnet durch das Symbol MB. Im Internationalen Einheitensystem (SI) steht der Präfix ‘mega’ für einen Multiplikator von 1.000.000 (10^6). Ein Megabyte entspricht also einer Million Byte, und diese Definition ist heute integraler Bestandteil des Internationalen Größensystems.
In der Informatik und IT haben sich aus historischen Gründen jedoch alternative Definitionen etabliert. Eine gängige Verwendung definiert ein Megabyte als 1.048.576 Byte (2^20 B), was gut zur binären Architektur des Speichers digitaler Computer passt. Diese Definition wurde von Standardisierungsgremien zugunsten eines neuen Satzes binärer Präfixe als veraltet erklärt. Die Einheit ‘Mebibyte’ (MiB) repräsentiert nun diese konkrete Menge von 1.048.576 Byte.
Eine ausführlichere Erklärung zum Unterschied zwischen Mebibyte und Megabyte finden Sie in diesem Artikel: What is the difference between MB and MiB?
Definitionen
Die Einheit ‘Megabyte’ wird häufig für zwei unterschiedliche Größen verwendet: 1.000.000 Byte oder 1.048.576 Byte. Die zweite Lesart, basierend auf der Verwendung von Basis 1024, entstand als Fachjargon, um Byte-Vielfache mit Zweierpotenzen ohne eigenen Begriff darzustellen. Da 1024 nahe an 1000 liegt, was zum SI-Präfix ‘Kilo-’ passt, war es eine bequeme Art, das binäre Vielfache zu bezeichnen.
1998 schlug die Internationale Elektrotechnische Kommission (IEC) binäre Präfixe vor und führte ‘Megabyte’ für 1.000.000 Byte und ‘Mebibyte’ für 1.048.576 Byte ein. Diese Standards wurden später von verschiedenen Organisationen wie IEEE, EU, ISO und NIST übernommen. Trotz dieser standardisierten Definitionen wird der Begriff ‘Megabyte’ jedoch weiterhin in unterschiedlichen Bedeutungen verwendet.
In der Basis-10-Konvention entspricht 1 MB 1.000.000 Byte, im Einklang mit den Regeln des SI und der IEC. Diese Definition ist im Kontext von Computernetzwerken und Speichermedien wie Festplatten, Flash-Speichern und DVDs üblich. Sie passt zur Verwendung anderer SI-Präfixe in der Informatik, etwa bei CPU-Taktfrequenzen oder Leistungsmessungen.
In der Basis-2-Konvention entspricht 1 MB hingegen 1.048.576 Byte, insbesondere im Kontext von Computerspeicher wie RAM. Diese Definition ist gleichbedeutend mit der eindeutigen binären Einheit ‘Mebibyte’. Nach dieser Konvention entspricht 1 GB 1.024 MB (1.024^3 Byte), wobei ‘GB’ für Gigabyte steht.
Es gibt zudem eine gemischte Konvention, in der 1 MB als 1.024.000 Byte (1.000 × 1.024 Byte) verstanden wird. Diese Definition wird zur Beschreibung der formatierten Kapazität von 1,44-MB-3,5-Zoll-HD-Disketten verwendet, obwohl deren tatsächliche Kapazität 1.474.560 Byte beträgt.
Zusammengefasst: Der Begriff ‘Megabyte’ kann je nach Kontext und Konvention unterschiedliche Bedeutungen haben: entweder 1.000.000 Byte (Basis 10) oder 1.048.576 Byte (Basis 2).
Comments
Sign in with GitHub to comment. Reactions and replies thread back to the comments repo.