ASCII
analog
binär, binäre Kodierung
boolesche Logik
digital
hexadezimal
Schaltnetz
Schaltwerk
Selbstmodifizierender Kode
Senke
SISD-Architektur
Taktzyklus
Treiben (einer Leitung, eines Einganges, eines Ausganges)
Tri-State-Gatter
Wort
Der American Standard Code for Information Interchange ist wohl die verbreitetste Möglichkeit, Buchstaben, Ziffern, Satz- und Sonderzeichen als Zahlen zu kodieren - intern gehen Computer ja nur mit Zahlen um. Das genormte Standard-ASCII ist ein 7-Bit-Kode, enthält also 128 Zeichen; es existieren zahlreiche Erweiterungen auf 8 Bit (was sich anbietet), wie z.B. PC-8 (ASCII plus Sonderzeichen der "wichtigsten" europäischen Länder, u.a. Deutschland).
Eine Meßgröße ist analog, wenn sie ihren Wertebereich kontinuierlich abdeckt, also unendlich fein abgestufte Werte annehmen kann. Alle meßbaren Dinge in der Natur, abgesehen von der Anzahl der Dinge, sind analog, z.B. der Farbton des Morgenrots, die Temperatur oder die Luftfeuchtigkeit. Die unendlich feine Abstufung analoger Signale ist in der Technik gleichzeitig Vor- und Nachteil. Sie ermöglicht relativ einfache Konstruktionen (z.B. Übertragung eines Telefongesprächs als analoge elektrische Spannung in einem Kupferdraht), aber genauso, wie ein Signal sehr feine Wertunterschiede annehmen kann, wird es auch unmerklich und ständig verfälscht werden. Niemand würde auf die Idee kommen, die Anzahl der Pfennige auf seinem Konto als eine elektrische Spannung zu kodieren; in einem solchen Fall wird analoge Technik sehr teuer, weswegen man ihr Gegenteil, die Digitaltechnik wählt.
Im Alltag benutzen wir üblicherweise das Dezimalsystem (Zehnersystem) für die Zahlendarstellung; dieses
besitzt zehn Ziffern. Mit einer einstelligen Zahl lassen sich also zehn unterschiedliche Werte darstellen, mit
einer achtstelligen z.B. 108 = 10 000 000.
Wie Konrad Zuse, John von Neumann und andere richtig erkannten, bereitet es technische Probleme, die zehn Ziffern
des Dezimalsystems in Rechenanlagen zu speichern. Wenn man die Ziffern, wie heute üblich, z.B. als elektrische
Spannungen kodiert, also jeder Ziffer eine andere Spannung zuweist, kann es leicht vorkommen, daß durch äußere
Einflüsse aus einer 7 eine 8 wird etc.; integrierte Schaltungen für so viele unterschiedliche Spannungen
wären auch recht aufwendig.
Deswegen wird in Rechenanlagen das Dualsystem benutzt, das nur die Ziffern 0 und 1 kennt. Mit einer fünfstelligen
Zahl lassen sich zwar nur noch 28 = 256 unterschiedliche Werte kodieren, aber die Rechner sind sehr
viel robuster und Speicher können sehr effizient und platzsparend aufgebaut werden.
Wenn nun ein Rechner Zahlen und alle anderen Daten (Befehle, Adressen, Zeichen usw.) intern im Dualsystem ablegt und verarbeitet, spricht man von binärer Kodierung.
"Boole, George (1815-1864), britischer Mathematiker und Logiker, der die Boolesche Algebra entwickelte. Boole erwarb seine Kenntnisse zum großen Teil im Selbststudium und wurde 1849 Professor für Mathematik am Queen's College (heute University College) in Cork, Irland. 1954 beschrieb Boole in seinem Werk An Investigation of the Laws of Thought ein algebraisches System, das die Bezeichnung Boolesche Algebra erhielt. In der Booleschen Algebra werden logische Lehrsätze als Symbole angegeben. Mit diesen lassen sich dann mathematische Berechnungen ausführen, die den Gesetzen der Logik entsprechen. Die Boolesche Algebra ist vor allem für das Studium der reinen Mathematik und für die Entwicklung moderner Computer von großer Bedeutung." (Stichwort "Boole, George" in [Encarta97])
Eine Logik, die nur auf den Werten "1" und "0", entsprechend "wahr" und "falsch", beruht.
Gegenteil von analog.
Eine Meßgröße ist digital, wenn sie in ihrem Wertebereich nur eine endliche Anzahl von Werten
annehmen kann, also "abgestuft" ist.
"Digital, bezieht sich auf Ziffern (Digits) oder die Art, wie sie dargestellt werden. Im Zusammenhang mit Computern wird der Begriff digital oft mit dem Begriff binär gleichgesetzt, weil die meisten bekannten Computer Informationen als codierte Kombinationen von binären Ziffern (Bits: Binary Digits) verarbeiten. Ein Bit kann höchstens zwei Werte darstellen, zwei Bits können vier Werte repräsentieren, acht Bits 256 Werte usw. Werte zwischen zwei Zahlen werden entweder durch die höhere oder die niedrigere Zahl ausgedrückt. Da in der Digitaldarstellung ein Wert durch eine codierte Zahl repräsentiert wird, kann der darstellbare Zahlenbereich sehr umfangreich sein, wenngleich die Anzahl der möglichen Werte durch die Anzahl der verwendeten Bits begrenzt wird. Siehe auch Digital/Analog-Wandler." (Stichwort "Digital" in [Encarta97])
Die digitale (und binäre) Speicherung in Computern hat auch den Vorteil der Robustheit:
Wenn eine 0 als 0 Volt und eine 1 als 5 Volt kodiert wird, erlauben begrenzte Verfälschungen (z.B. um 1 Volt)
immer noch die richtige Interpretation des Wertes; wenn solchermaßen kodierte Werte übertragen werden,
kann man sie regelmäßig "auffrischen", ohne daß die Information verfälscht wird.
Bei einem analogen Signal, das durch eine Übertragung schwächer wurde, wird bei einer Verstärkung
auch jede eingeflossene Störung mitverstärkt.
Die fehlende "Feinheit" digitaler Signale verliert dann ihre Bedeutung, wenn man die Werte mit ausreichend
vielen Bits kodiert; die Kodierung von Farbtönen mit 24 Bits reicht beispielsweise für mehr Farben aus,
als das menschliche Auge unterscheiden kann.
Unser übliches dezimales Zahlensystem umfaßt zehn Ziffern (0 bis 9), das hexadezimale hingegen 16 (0 bis 9, A bis F). Es entsprechen sich also folgende Zahlen:
dezimal |
hexadezimal |
1 | 1 |
9 | 9 |
10 | A |
15 | F |
16 | 10 |
17 | 11 |
255 | FF |
4096 | 1000 |
232 - 1 | FFFF FFFF |
Das Hexadezimalsystem ist nützlich, um Zahlen des Binärsystems kürzer darzustellen, denn vier Bit einer Binärzahl fallen in einer Stelle der Hexadezimalzahl zusammen, für ein Byte benötigt man also genau zwei Hexadezimalstellen, für ein 32-Bit-Wort acht, etc.
Ein kombinatorisches Schaltwerk.
"(engl. sequential circuit, sequential network): Die Verarbeitung binärer Informationen erfolgt in digitalen Rechenanlagen mit Hilfe logischer Schaltungen, den Schaltwerken, welche binäre Worte in andere binäre Worte umwandeln.
Ein Schaltwerk habe n Eingangsleitungen und m Ausgangsleitungen. Auf den Eingangsleitungen können binäre Wortex1x2…xn mit xi aus {0; 1}
eingegeben werden und auf den Ausgangsleitungen erscheinen in Abhängigkeit von der Eingabe binäre Worte
y1y2…ym mit yi aus {0; 1}.
Hängt bei einem logischen Schaltwerk die Ausgabe nur von der momentan anliegenden Eingabe ab, so spricht man von einem kombinatorischen Schaltwerk. Hängt die Ausgabe außerdem noch von früheren Eingaben ab, so handelt es sich um eine Schaltung ‘mit Gedächtnis’, d.h. um ein sequentielles Schaltwerk (logisches Schaltwerk mit Speichergliedern). …" (Stichwort "Schaltwerk" in [Duden88])
Kombinatorische Schaltwerke werden auch Schaltnetze genannt, Schaltwerk im allgemeinen meint ein sequentielles
Schaltwerk. Ein Schaltnetz besteht nur aus Logikgattern (UND, ODER, NICHT); ein Schaltwerk besteht aus einem Schaltnetz
und Speichergliedern (Flipflops).
Alle Computer, die (von Computern abstammen, die) nach den Grundsätzen des Von-Neumann-Rechners entworfen wurden, haben auch dieses gemeinsam: Programme und Daten liegen in ein- und demselben Speicher. Weil also Befehlswörter sich in der Hardware nicht von Datenwörtern unterscheiden und für den Computer nur Zahlen sind, kann der Computer sich eigene Befehle selbst "berechnen". Auf diese Art und Weise lassen sich Befehle nachbilden, die die Hardware des Zentralprozessors des jeweiligen Computers nicht kennt; deutlicher wird dies an einem Beispiel.
Begriff aus der theoretischen Informatik: Ein Ort, zu dem sich Daten hinbewegen. Gegenteil: Quelle. Die Daten kann man sich als Wasser vorstellen, das von einer (hochgelegenen) Datenquelle stets bergab in eine Senke fließt und dort verschwindet (verarbeitet wird).
SISD: Abkürzung für single instruction stream, single data stream. Ein Rechner mit solcher Architektur besitzt nur einen Prozessor und bearbeitet damit jeweils nur einen Befehl zur Zeit, erzeugt also auch nur einen Strom von Daten. Von praktischer Bedeutung sind noch folgende Architekturen:
Das Zeitintervall zwischen einer Aktivierung des Taktsignals und der nächsten.
Das Bild zeigt ein UND-Gatter mit drei Eingängen:
An den oberen Dateneingang ist keine Datenquelle angeschlossen oder keine Quelle erzeugt eine 0 oder
1 - der Eingang wird nicht getrieben. Der Wert des Einganges wird mit Z oder "offen" bezeichnet (es scheint,
als sei der Eingang durch einen geöffneten Schalter vom Rest der Welt abgeschnitten). Der mittlere Eingang
wird von genau einer Quelle mit einem Wert (1) versorgt - er wird (korrekt) getrieben und hat den gleichen Wert
wie die treibende Quelle. An den unteren Eingang sind zwei Quellen angeschlossen, die unterschiedliche Werte liefern
- die Quellen treiben gegeneinander, der Wert des Einganges ist undefiniert; wenn 0 und 1 als unterschiedliche
Spannungen kodiert sind, gibt es hier auf elektrischer Ebene einen Kurzschluß.
Wegen des undefinierten unteren Einganges (niemand weiß, welche Quelle zuerst - durch ihre Zerstörung
- "nachgibt") ist auch der Ausgang des UND-Gatters undefiniert. Der Eingang mit Z als Wert ist hingegen
kein Hindernis - sobald man sich der Notwendigkeit und Existenz dieses logischen Wertes bewußt ist, wird
man sowieso eine dreiwertige Logik (mit 0, 1 und Z) verwenden; oftmals wird z.B. festgelegt, daß Z an einem
Eingang wie 1 (oder 0) interpretiert wird.
Ein Bauteil, welches neben 0 und 1 einen dritten logischen Wert Z ("offen") verarbeitet und erzeugt.
Ein Tri-State-Gatter besitzt einen Dateneingang x, einen Datenausgang y und einen Steuereingang output enable.
Solange output enable 1 ist, erscheint der Wert von x unverändert an y; andernfalls erscheint an y
der Wert Z. Dies hat auf elektrischer Ebene den gleichen Effekt, als sei die Verbindung zwischen Datenein- und
-ausgang unterbrochen ("offen").
Ein T. wird dazu benutzt, Kurzschlüsse auf elektrischer Ebene zu vermeiden, indem jeder Bus nur von höchstens
einer Quelle getrieben wird.
x |
output enable |
y |
0 | 0 | Z |
1 | 0 | Z |
Z | 0 | Z |
0 | 1 | 0 |
1 | 1 | 1 |
Z | 1 | Z |
Ein n-Bit-Wort ist ein Tupel aus n Bits. Wenn man nur von "Wort" spricht, sollte man vorher eindeutig klären, wieviele Bits man damit meint; andere klassische Bezeichnungen für n-Bit-Wörter:
Anzahl Bits |
Bezeichnung |
4 | Nibble |
8 | Byte |
16 | Word |
32 | DWord (Double Word), Word, Long Word |
64 | QWord (Quad Word), Word, Long Word |
8192 = 1024 Bytes | KByte |
8.388.608 = 1.048.576 Bytes | MByte |
8.589.934.592 = 1.073.741.824 Bytes | GByte |
8000 = 1000 Bytes | Kilobyte |
8.000.000 = 1.000.000 Bytes | Megabyte |
8.000.000.000 = 1.000.000.000 Bytes | Gigabyte |
Carsten Kelling 1996 (); letzte Änderung: 17. September 1997 |