Studium, Ausbildung und Beruf

web uni-protokolle.de
 powered by
NachrichtenLexikonProtokolleBücherForenSamstag, 2. August 2014 

Bit


Dieser Artikel von Wikipedia ist u.U. veraltet. Die neue Version gibt es hier.
Dieser Artikel beschäftigt sich mit dem Bit Informationseinheit. Für weitere Bedeutungen des Wortes Bit Bit (Begriffsklärung)

Das Bit ist die gebräuchliche Einheit der Information . Es ist ein Kurzwort aus bi nary digi t (Binärziffer). Der Begriff wurde von dem John W. Tukey (vermutlich 1946 nach anderen schon 1943) vorgeschlagen. Schriftlich wurde der Begriff 1948 zum ersten Mal auf Seite 1 Claude Shannons berühmter Arbeit A Mathematical Theory of Communication erwähnt. Die Einheiten nat oder Hartley Maß für die Information finden dagegen selten

Jede Information ist an einen Informationsträger gebunden. Die Informationsmenge 1 Bit entspricht einer einfachen Ja-Nein-Entscheidung die man auch durch

  • die Stellung eines Schalters mit zwei (Lichtschalter EIN oder AUS)
  • den Schaltzustand eines Transistors (leitend oder nichtleitend)
  • das Vorhandensein einer Spannung (größer oder kleiner als vorgegebene Grenzwerte)
  • die logischen Wahrheitswerte (Wahr oder Falsch high oder low oder L)
repräsentiert denken kann.

Der Wert eines oder mehrerer Bits in der Informatik allgemein als Zustand bezeichnet da ein Bit in der von einem physikalischen Element (z. B. dem Transistor) dargestellt wird welches einen bestimmten Zustand Werden mehrere Elemente zu einer Einheit zusammengesetzt der Gesamtzustand dieser Einheit vom Zustand jedes Elements ab und es ergeben sich wiederum verschieden Zustände dieser Einheit.

Mit n Bits lassen sich 2 n verschiedene Zustände darstellen so ergeben bspw. 2 Bits 4 verschieden Zustände: 00 01 10 und 11
Weiters ergeben 4 Bits 16 mögliche 8 Bits 256 usw.
Jedes zusätzliche Bit verdoppelt die Anzahl möglichen darstellbaren Zustände. Repräsentieren diese Zustände (ganze) so ist ein Bit umso gewichtiger (höherwertiger) weiter links es in der Bitfolge steht siehe auch Stellenwert).

Allgemein gilt in der digitalen Welt dass es keine "unwichtigen" Bits Beispiele:

  • zwei 64 Bit-Zahlen sind ungleich wenn sie auch nur im niederwertigsten Bit unterscheiden. Das z. B. zu einem Vertrauensproblem wenn zwei Fingerabdrücke verglichen werden.
  • eine ausführbare Datei wird unbrauchbar wenn auch nur ein "kippt" (aus 0 wird fälschlich 1 oder
  • Nur ein einziger Fehler in der Bitfolge 2048 Bit langen Schlüssels zu einem verschlüsselten führt unweigerlich dazu dass sich der Text mehr entschlüsseln lässt ( siehe Kryptologie ).
  • Bitfehler auf einer Audio-CD können toleriert werden führen maximal zu Geräuschfehlern; auf einer Daten-CD sie fatal.

So gesehen kann es geschehen dass einziges Bit entscheidend ist für Annahme oder Erfolg oder Misserfolg Sein oder Nichtsein...

Der Tatsache dass nur ein falsches ausreicht um unerwartete Ergebnisse zu produzieren wird begegnet dass auf einigen Datenträgern und bei Datenübertragung Informationen redundant gespeichert werden so dass einzelne Fehler werden können (so ist z. B. auf CD jedes Byte über eine Strecke von cm verteilt und mit anderen Bytes zusammen Reed-Solomon-Code (einer Art Quer- oder auch Prüfsumme ) abgespeichert so dass beliebige 1 mm-Streifen CD fehlen können und dennoch die ganze vorhanden ist). Ein Nachteil dieser Speichermethode ist dass etwas Speicherplatz verschwendet wird (Speicherplatz von wäre ca. 17% größer Netzwerke 40% schneller Mobiltelefone 200% (bei den letzten beiden unterschiedlich nach Typ)). Später kann der Empfänger anhand gespeicherten und ebenfalls mitgeteilten Prüfsumme durch erneute verifizieren dass die Datei oder Nachricht nicht oder durch einen Übertragungsfehler beschädigt wurde und die Originalinformation rekonstruieren.

Moderne Computer und Speichermedien verfügen über Speicherkapazitäten von Milliarden von Bits so dass Einheiten üblich sind. Die nächst größere Einheit das Byte (8 Bit gelegentlich auch als Oktett Allgemein gebräuchlich das Byte und die Verwendung SI - Vorsilben Kilo Mega Giga Tera usw. um entsprechend große und Adressräume zu bezeichnen. Allerdings wird hier jeweils in Vielfachen von 1000 (kilo) sondern Vielfachen von 2 10 also von 1024 (Kilo) gerechnet (manchmal wird dieser geringe aber nicht so genau genommen).

Ein Beispiel aus der Praxis:

Die Kapazität einer CD-ROM wird z. B. mit 640 MB angegeben. Das wären 640 × 1024 × × 8 = 5.368.709.120 Bit.

Tatsächlich wird auf der CD jedes Bit durch eine kleine eingeprägte (oder mit Laser-Strahl erzeugte) Vertiefung (Pit) dargestellt. Das Nicht-Vorhandensein Vorhandensein solcher Vertiefungen (Land) an bestimmten Stellen hier aber nicht den Bit-Informationen 0 und sondern der Übergang von Pit zu Land eine 1. Damit längere gleiche Folgen hierbei Probleme machen besteht ein Byte auf einer aus 14 Bits.

Genau genommen muss man aber für Verwendung der SI-Vorsilben jeweils einen Faktor von annehmen nicht 1024. Will man 1024 Bytes so kann man dafür 1 KiB (Kibibyte) 1024 × 1024 Bytes 1 MiB (Mebibyte) 1024 × 1024 × 1024 1 GiB und für 1024 × 1024 × 1024 1024 1 TiB (Tebibyte) angeben. Jedoch hat diese Notation noch nicht durchgesetzt.

Das Bit muss unterschieden werden vom Qubit das in der Quanteninformationstheorie verwendet wird.



Bücher zum Thema Bit

Dieser Artikel von Wikipedia unterliegt der GNU FDL.

ImpressumLesezeichen setzenSeite versendenSeite drucken

HTML-Code zum Verweis auf diese Seite:
<a href="http://www.uni-protokolle.de/Lexikon/Bit.html">Bit </a>