Kurz für Binärziffer ist ein Bit eine Maßeinheit. Der Begriff wurde erstmals von John Tukey, einem führenden Statistiker und Berater von fünf US-Präsidenten, in einem Memo von 1946 für Bell Labs verwendet. Seine Empfehlung war das natürlichste Portmanteau, das zu dieser Zeit vorgeschlagen worden war. Daher gewann es an Popularität und wurde kurz darauf in A Mathematical Theory of Communication vom Mathematiker Claude E. Shannon kodifiziert.
Ein einzelnes Bit ist die kleinste Informationseinheit auf einer Maschine und kann nur einen von zwei Werten enthalten: 0 oder 1. Diese Werte können eine Vielzahl von Binärdateien darstellen, einschließlich Ja / Nein, Positiv / Negativ, Ein / Aus, Richtig / Falsch und positiv / negativ. Aussagekräftigere Informationen werden erhalten, indem aufeinanderfolgende Bits zu größeren Einheiten wie Bytes, Kilobytes, Gigabytes und Megabytes kombiniert werden. (Mehr dazu weiter unten.)
Computer werden manchmal nach der Anzahl der Bits klassifiziert, die sie gleichzeitig verarbeiten können, oder nach der Anzahl der Bits, die zur Darstellung von Adressen verwendet werden. Diese beiden Werte sind nicht immer gleich, was zu Verwirrung führt. Beispielsweise kann ein Computer mit einem 32-Bit-Computer Datenregister mit einer Breite von 32 Bit haben, oder er kann 32 Bit verwenden, um jede Adresse in seinem Speicher zu identifizieren.
Grafiken werden häufig durch die Anzahl der Bits beschrieben, die zur Darstellung jedes Punkts verwendet werden. Ein 1-Bit-Bild ist beispielsweise monochrom, während ein 8-Bit-Bild 256 Farben oder Graustufen unterstützt und eine 24- oder 32-Bit-Grafik echte Farben unterstützt.
Bits werden auch verwendet, um zu beschreiben, wie schnell Daten über ein Netzwerk übertragen werden, normalerweise als Kilobit pro Sekunde (Kbit / s), Megabit pro Sekunde (Mbit / s) oder in seltenen Fällen als Gigabit pro Sekunde (Gbit / s). Die Netzwerkgeschwindigkeit kann zwischen 1 Mbit / s und über 1,000 Mbit / s oder über 1 Gbit / s liegen, obwohl ein „schnelles“ Netzwerk völlig relativ ist. Um dies in einen Zusammenhang zu bringen, benötigt ein hochauflösender Film mit Spielfilmlänge normalerweise etwa 5 Mbit / s für ein unterbrechungsfreies Streaming.
Bit gegen Byte
Obwohl die beiden Begriffe manchmal verwechselt werden, besteht ein Byte aus 8 aufeinanderfolgenden Bits. Informatiker arbeiten selten mit jeweils einem Bit, daher ist das Ausdrücken von Daten in Bits normalerweise zu langwierig und kann viel einfacher sein als Bytes, Kilobytes (KB), Gigabytes (GB) oder Megabytes (MB). Wie andere metrische Präfixe verwendet ein Kilobyte die Mathematik der Basis 10 und besteht aus 1,000 Bytes.
Mehrere Bytes (und damit auch Bits) können auch mit binären Präfixen mit Basis-2-Mathematik ausgedrückt werden, obwohl dies aufgrund seiner Komplexität viel seltener vorkommt. Diese Ausdrücke umfassen Kibibyte (KiB), dh 210 oder 1,024 Byte; Mebibyte (MiB), das sind 220 oder 1,0242 Bytes; und Gibibyte (GiB), die 230 oder 1,0243 Bytes sind.