MIN-Fakultät
Fachbereich Informatik
TAMS

Fehlertolerante Schaltungen

Am Arbeitsbereich TECH wurden unterschiedlichste Ansätze - Architekturen, Codierungen, neuronale Netze - verfolgt, um Fehlertoleranz schon auf der Hardwareseite zu gewährleisten.

PUMA | Selbstüberwachung | NeuroNetzwerke


PUMA

Ziel des PUMA Projekts ist der Aufbau einer neuen Rechnerarchitektur mit folgenden Eigenschaften: Im Vordergrund steht bei der PUMA die Fehlertoleranz. Möglichst viele Hard- und Softwarefehler sollen entweder von vornherein vermieden oder aber bei ihrem eintreten sicher erkannt und nach Möglichkeit korrigiert werden können. Dabei sollte ein Fehler so rechtzeitig bemerkt werden, daß es zu keiner Ausbreitung von Folgefehlern kommt, daß also die Auswirkungen eines Fehlers eng begrenzt bleiben.

Bezüglich der PUMA Hardware wurde gefordert, daß sämtliche Ein-Bit-Fehler (auch transiente) erkannt und korrigiert werden können. Dem wird durch die Verwendung von verschiedenen Codes Rechnung getragen. Zudem erlaubt die Hardwarestruktur ein einfaches und detailliertes Testen von einem externen Wartungsrechner aus.


Selbstüberwachende Schaltungen

Selbstüberwachende Schaltungen verwenden eine geeignete Codierung ihrer Ausgangssignale. Durch entsprechende Schaltungstechnik läßt sich erreichen, daß die korrekte Schaltung nur Codeworte am Ausgang liefert. Bei einem Defekt der Hardware bleibt die Ausgabe der Schaltung entweder korrekt, oder sie liefert ein Nicht-Codewort.

Am Arbeitsbereich TECH sind selbstüberwachende Schaltungen entwickelt und untersucht worden, die auf einer Reed-Muller Realisierung (UND-EXOR) basieren.


Fehlertoleranz in NeuroNetzwerken

Neuronale Netzwerke gelten als hochgradig fehlertolerant. Die mathematische Analyse ist in den meisten Fällen allerdings unmöglich, weil die Netzwerke viel zu komplex sind. Gerade die Analyse der häufig benutzten Feed-Forward Netzwerke (Stichwort Backpropagation Lernregel) ist hoffnungslos kompliziert.

Für die Klasse der neuronalen Assoziativspeicher (Hopfield-Gardner Netzwerke) ist dagegen eine mathematische Analyse möglich und am Arbeitsbereich entwickelt worden.

Dabei ergeben sich vor allem zwei interessante Resultate. Zum einen zeigt sich, daß die Auswirkung defekter Neuronen auf das übrige Netzwerk durch den Einsatz iterativer Lernregeln kompensiert werden kann. Zum anderen läßt sich die Speicherkapazität des Netzwerks als Funktion der Konzentration zerstörter Synapsen mit einem sehr einfachen Verfahren genau beschreiben.