Home     Europakarte     Weltkarte     Arbeiten     Impressum     Sitemap

 

3.4. Grenzen der augenblicklichen Erklärungsfähigkeit in ein­gesetzten wissensbasierten Systemen

Die Erklärungsfähigkeit von augenblicklich eingesetzten wissensbasierten Systemen beschränkt sich zumeist darauf, das Verhalten des Systems zu beschreiben. Dies geschieht häufig mit den Fragen WHY und HOW.

Selbst diese einfache Beschreibung des Systemverhaltens fällt recht schwer. Ein Grund für unverständliche Erklärungen des Systemverhaltens liegt unter anderem im Housekeeping, welches sich in vielen Regeln befindet. Unter Housekeeping werden Regelteile verstanden, die nur für die interne Arbeit des Programmes und nicht für Erklärungen relevant sind.166

Ein    Beispiel    für    Housekeeping    ist    Dialogwissen    [screening clause]. Als Beispiel kann folgendes Regelfragment dienen:
'if  ...   age  is  greater than 17 and the patient is an alcoholic,
then ...'.
Die    vorgestellte    Bedingung    soll    verhindern,    daß    bei    einer Behandlung von Kindern das System nach Alkoholismus fragt. Als erstes wird die Bedingung, Alter größer als 17 geprüft und nur, wenn    diese    Bedingung    erfüllt    ist,     wird    die    Frage    nach Alkoholismus gestellt.167

Da dieses Housekeeping in den Regeln enthalten ist, wird es in die Erklärungen eingefügt, obwohl es eher den Benutzer verwirrt als erleuchtet.168 Durch das Housekeeping ist es dem Anwender manchmal  nicht  möglich,  das Diagnosewissen hinter den Regeln zu erkennen.169 Bei dem obigen Beispiel kann z.B. der Eindurck entstehen, daß sowohl das Alter als auch der Alkoholismus eine kausale Ursache für das unter der Konklusion stehende ist.

Ein weiterer wichtiger Grund für die begrenzte Erklärungs­fähigkeit ist, daß für die Begründung wesentliche Zwischen­schritte bei der Erstellung der Regeln vernachlässigt werden [compile out effect]170 und nur noch implizit dem System zur Verfügung stehen.

RULE 1:
If the patient is less then 8 years old,
THEN the patient's bones are subject to drug chelation

RULE 2:
IF the patient's bones are subject to drug chelation,
THEN don't prescribe Tetracycline.

RULE 3:
If the patient is less then 8 years old
THEN don't prescribe Tetracycline.

Abb. 7: Beispiel, für den Verlust von expliziten Informa­tionen171


Aus der obigen Abbildung ist ersichtlich, daß Regeln auf ganz unterschiedliche Art und Weise mit demselben Ergebnis geschrieben werden können. In der Regel 3 wird das Wissen der Regeln 1 und 2 zusammengefaßt und damit ein unnötiger Schritt vermieden.172     In     dieser     Form    steht    das    zugrundeliegende kausale Wissen (chelation) aber nicht mehr explizit für Erklärungen zur Verfügung und bleibt so für den Anwender unsichtbar.173.

Eine wünschenswerte Rechtfertigung für die Regel 3 wäre:

tetracycline in youngster
     ->
chelation of the drug in growing bones
          -> teeth discoloration
               ->
undesirable body change
                    -> don't admister tetracycline

Abb. 8: Kausale Rechtfertigung für Regel 3 174

Dieses kausale Wissen steht aber häufig in der Wissensbasis nicht explizit zur Verfügung. Daher kann das System keine guten Rechtfertigungen für seine Handlungen und Schlußfolgerung generieren.175 Die Informationen, die notwendig sind, um das Verhalten des Systems zu rechtfertigen, wurden von dem Programmierer benutzt, um das Programm zu schreiben. Dieses Wissen wird aber meist nicht explizit in das Programm eingefügt, da es für das erfolgreiche Arbeiten des Programms nicht notwendig ist.176 Genauso wie jemand einen Kuchen nach einem Rezept backen kann, ohne zu wissen, warum Backpulver verwendet wird,177 arbeiten viele wissensbasierte Systeme ohne kausales Wissen.

Auch in der Struktur der Regeln und dem Verhalten der Schluß­folgerungskomponente   kann   implizites   Wissen   über   die  Schlußfolgerungsstrategie enthalten sein.178 Dies führt dazu, daß für Rechtfertigungen des Systemverhaltens nicht das benötigte strategische Wissen zur Verfügung steht.

Die Erklärungsfähigkeit der meisten Systeme ist in folgender Hinsicht unzureichend:179

  1. beschränkt:   nur  einige  Arten   von   Fragen   können  beantwortet werden.
  2. unflexibel:    Erklärungen    können   nur    auf    eine   Art    gegeben werden.
  3. unsensibel:  Die  Erklärungen können den verschiedenen Benutz­ern oder Situationen nicht angepaßt werden.
  4. teilnahmslos: Das   System   kann,   wenn   die   Antwort   nicht   ver­standen   wurde,   diese   nicht   umformulieren  oder  nachfolgende Fragen beantworten.
  5. nicht erweiterbar: Neue     Erklärungsstrategien     können     nicht leicht ergänzt werden.

Zusammenfassend läßt sich sagen, daß es drei Gründe für diese Defizite gibt:

  1. Das erste Problem ist, daß das nötige Wissen nicht der Erklärungskomponente zur Verfügung steht, da es implizit oder überhaupt nicht in der Wissensbasis enthalten ist.
  2. Das zweite Problem besteht darin, die für die einzelnen Benutzer relevanten Informationen auszuwählen.
  3. Das dritte Problem basiert auf der Unfähigkeit der Erklärungs­komponente,   aus  dem  Wissen  eine  angemessene  und   verständ­liche Erklärung zu erstellen.

 


165      Vgl.  SWARTOUT,   W.R.:   Knowledge Needed for Expert System Explanation, a.a.O., S. 96.

166    vgl.   BOLAM,   W.J.:   Explanation   in   Expert  Systems,   a.a.O., S. 910.

167       Vgl.   CLANCEY,    W.J.:    The   Epistemology   of   a   Rule-Based Expert System, a.a.O., S. 227.

168      Vgl.   CLANCEY,    W.J.:    The   Epistemology   of   a   Rule-Based Expert System, a.a.O., S. 293.

169      Vgl. HUBER, K.-P.: Erklärungskomponente für das Expertensystem XUMA unter Berücksichtigung verschiedener Benutzerklassen, a.a.O., S. 15.

170       Vgl. CLANCEY, W.J.: Transfer of Rule-Based Expertise Through a Tutorial Dialogue, STAN-CS-79-769, Doctoral Dissertation, Stanford, CA 1979, S. 146.

171        In Anlehnung an CLANCEY, W.J.: Transfer of Rule-Based Expertise Through a Tutorial Dialogue, a.a.O., S. 147.

172       Vgl. CLANCEY, W.J.: The Epistemology of a Rule-Based Expert System, a.a.O., S. 225.

173       Vgl. HUBER, K.-P.: Erklärungskomponente für das Expertensystem XUMA unter Berücksichtigung verschiedener Benutzerklassen, a.a.O., S. 16.

174       CLANCEY, W.J.: The Epistemology of a Rule-Based Expert System, a.a.O., S. 225.

175       Vgl. SWARTOUT, W.R.: Knowledge Needed for Expert System Explanation, a.a.O., S. 95.

176       Vgl. SWARTOUT, W.R.: XPLAIN: a System for Creating and Explaining Expert Consulting Programs, a.a.O., S. 293.

177       Vgl. SWARTOUT, W.R.: Producing Explanations and Justifications of Expert Consulting Programs, a.a.O., S. 19.

178       Vgl.   BOLAM,   W.J.:   Explanation   in   Expert  Systems,   a.a.O., S. 912.

179       Vgl.  MOORE,   D.J.;  SWARTOUT,  W.R.:   Explanations in Expert Systems, a.a.O., S. 2.