Die Maßeinheit Byte ist aus der IT-Branche nicht mehr wegzudenken. Doch warum wird in der Informatik die Zahl 1024 verwendet und nicht 1000? Um diese Frage zu beantworten, muss man einen Blick in die Geschichte werfen.
Ein Byte ist eine Maßeinheit für Datenmenge und besteht aus acht Bits. Ein Bit ist die kleinste mögliche Informationseinheit und kann zwei Zustände annehmen: entweder 0 oder 1. Ein Byte kann somit insgesamt 256 verschiedene Kombinationen von Nullen und Einsen darstellen. Es wird häufig verwendet, um die Größe von Dateien oder Speichermedien anzugeben.
Die Verwendung von 1024 statt 1000 geht auf die Verwendung von binären Systemen zurück. Computer arbeiten mit binären Zahlen, die nur aus Nullen und Einsen bestehen. Im binären System entspricht 2 hoch 10 der Zahl 1024. Dies ist der Grund, warum in der Informatik die Zahl 1024 als Basis für die Umrechnung von Byte in Kilobyte, Megabyte, Gigabyte usw. verwendet wird.
Wenn es um die Speicherkapazität von Smartphones geht, wird häufig die Frage gestellt, was mehr ist: GB oder MB? Ein Gigabyte entspricht 1024 Megabyte, daher ist ein GB mehr als ein MB. Wenn man zum Beispiel 1,5 GB in MB umrechnen möchte, multipliziert man 1,5 mit 1024 und erhält 1536 MB.
Abschließend lässt sich sagen, dass ein Byte 8 Bit groß ist und dass in der Informatik die Zahl 1024 anstelle von 1000 verwendet wird, da Computer binäre Systeme verwenden. Ein GB entspricht 1024 MB und ein MB entspricht 1024 Byte.
Ein Megabyte sind 1024 Kilobyte und nicht 1000 Kilobyte.
10 MB sind 10.240 K.
Das hängt von der Größe und Qualität des Bildes ab. Ein durchschnittliches JPEG-Bild mit einer Auflösung von 1920×1080 Pixeln und einer mittleren Qualitätseinstellung hat eine Größe von ca. 1-2 MB. Ein GB würde also etwa 500-1000 solcher Bilder enthalten können.