Nichtdeterministische Modellierung von Computern

These: Bereits für nicht-vernetzte PC's erscheint wegen der zunehmenden Komplexität der Systeme das traditionelle Modell eines deterministischen Automaten ungeeignet zu werden, um Voraussagen für das Verhalten und die notwendigen Eingriffe machen zu können. Große Computernetze verhalten sich praktisch unvorhersehbar.

Das Thema "Beherrschung von Informationssystemen" war 1996 das Motto der GI/OCG-Tagung in Klagenfurt. Eines der Hauptergebnisse (neben einem unbegrenzten Optimismus) waren Forderungen nach höhrer Qualität, sowohl von Online-Dokumenten als auch von Software. Eine Reihe gutgemeinter Vorschläge versuchten auch, die Richtung "Zuverlässigkeit" anzupeilen. Unklar ist jedoch, ob es für "Qualität" überhaupt einen Markt gibt, vor allem einen Massenmarkt. Im technischen Bereich haben sich in den letzten Jahrzehnten immer die schlechteren Alternativen durchgesetzt (Beispiele: VHS, DOS/Windows, PC-Architektur, ATAPI, IDE, C++, ...). Hier soll nicht die Frage nach den Ursachen dieses Trends gestellt werden (dies bleibt wohl besser einer multidiziplinären Analyse vorbehalten). Hier geht es um eine Einschätzung der Folgen mangelnder Qualität.

Eingewöhnungszeiten für moderne Computer


Sicher ist, daß die Komplexität der Computersysteme zunimmt und Fehler mittlerweile nicht mehr gesucht, sondern nur noch umgangen werden können. Ein weiterer Grund dafür ist die veränderte Arbeit der Programmierer. Fast kein Software-Entwickler glaubt noch, es sich leisten zu können, alle Teile einer Anwendung außer dem Betriebssystem selbst zu programmieren. Vielmehr stellt er nur Module anderer Hersteller zusammen. Von den Modulen gibt es verschiedene Versionen, die verschiedende Arrangements von Fehlern haben. Zusammen mit der Unsicherheit, ob die Fehler in den anderen Modulen behoben werden oder nicht, ergibt sich die Notwendigkeit fehlertoleranter Software-Systeme, wie gesagt tolerant gegenüber Software-Fehlern (Hardware-Fehler betrachten wir an anderer Stelle).
Diese fehlertoleranten Systeme lernen so langsam die Macken der anderen Module und umgehen sie dann. Das führt zu "Eingewöhnungszeiten", ein Effekt, den man ursprünglich bei Computern ("das sind doch bloß Maschinen!") nicht für bedenkenswert gehalten hat.

Deterministische Modellierung eines Computers

Einen Computer deterministisch zu modellieren heißt, anzunehmen, daß ausgehend vom gleichen Anfangszustand er bei Eingabe des gleichen Zeichens die gleiche Reaktion zeigt. Auf der Ebene der Logik-Bausteine scheint diese Annahme praktikabel zu sein. Das bedeutet: Wenn ich an einem Logik-Baustein einen bestimmten Satz Eingangssignale anlege, kommt ein bestimmter Satz Ausgangssignale heraus. Wenn der Baustein ein anderes Verhalten zeigt, macht es (wegen dem Determinismus) keinen Sinn, es nochmal auszuprobieren - Bausteine haben ja keine Launen. Ich werde den Baustein also auswechseln. Oder auswechseln lassen. Auf alle Fälle ihn nicht mehr so benutzen.
Würde man das gleiche Verhalten bei einem System wie Windows an den Tag legen, hieße das: "Wenn ich ein Programm doppelklicke, das gestern noch auf den selben Doppelklick reagiert hat und jetzt nicht, dann hat es gar keinen Sinn, es nochmal zu versuchen, weil die Maschine immer gleich funktioniert." Ich würde also wieder den Computer auswechseln oder auswechseln lassen und meine Arbeit wenigstens für einen Tag ruhen lassen.

Nicht-Deterministische Modellierung eines Computers

Die Sekretärin nebenan, die keine Lust auf so philosophischen Kram wie "Determinismus" hat, klickt einfach nochmal drauf und kann weiterarbeiten. Erst, wenn sie fünfmal draufgeklickt hat, womit sie zu der Überzeugung gekommen ist, die Trefferwahrscheinlichkeit ist nun für ein zügiges Arbeiten zu gering, wird sie zum Telefonhörer greifen und Hilfe oder Ersatz suchen.

Das Aufgeben des Glaubens an die Voherbestimmtheit der Reaktion des Computers erlaubt dieser Kollegin ein zügigeres Arbeiten. Wenn sie gut zuhört, vernimmt sie zwei Etagen höher das Krachen des Gebälks der Computerweltbilder.


Krisen in Computernetzen
08-Feb-1998, Dr. Werner Eberl, IP,
--- http://www.eberl.net/compmodel.html ----