Home     Europakarte     Weltkarte     Arbeiten     Impressum     Sitemap

 

3.2.  Anforderungen an die Erklärungsfähigkeit von wissens­basierten Systemen

Wie aus dem vorherigen Kapitel ersichtlich ist, wird der Erklärungsfähigkeit zumindest für die Benutzerakzeptanz eine hohe Bedeutung beigemessen. Diese Bedeutung spiegelt sich in den Anforderungen an die Erklärung wieder.

Die Anforderungen an die Erklärungsfähigkeit können unterteilt werden in benutzerabhängige und benutzerunabhängige Anforderungen.

WAHLSTER75 nennt unter anderem folgende benutzerunabhängige Ziele für die Erklärungen einer Erklärungskomponente:

  1. korrekt:    Die    Schlußfolgerungen    und    andere    Informationen müssen richtig wiedergegeben werden.
  2. verständlich:    In   der   Sprache,    dem   Inhalt   und   der   Menge müssen sie dem Benutzer angepaßt sein.
  3. informativ:   Die   Erklärungen   müssen   einen   hohen   Erklärungs­wert haben und dürfen keine irreführenden Details enthalten.
  4. kommunikativ   adäquat:   Die  Erklärungs-  und Detailebene soll der Situation gerecht werden
  5. kohärent:   Die   Erklärungen   sollen   auf   den   vorangegangenen Dialog Bezug nehmen.

Bei dieser Aufzählung mag das Kriterium Vollständigkeit vermißt werden. Dieses Kriterium wird häufig im allgemeinen Sprach­gebrauch zusammen mit Erklärungen verwendet. Aus der an­gestrebten Adäquanz von Erklärungen ergibt sich jedoch, daß Erklärungen immer nur zweckgebunden und nie vollständig sein können. Eine wirklich vollständige Erklärung würde letztendlich eine Erklärung des gesamten Universums erfordern.76

Einige Forscher machen Einschränkungen bezüglich des ersten Kriteriums. Sie weisen darauf hin, daß dieses Kriterium verletzt werden kann, ohne daß die Akzeptanz und der Wert der Erklärung beeinträchtigt werden. Die Erklärung muß nur bezogen auf den aktuellen Kenntnisstand des Umfeldes korrekt sein.77 Als Beispiel sei erwähnt, daß noch vor wenigen hundert Jahren folgende Erklärung als klar und schlüssig galt: Die Erde muß flach sein, da sonst die Menschen auf der anderen Seite her­unterfallen würden.

SWARTOUT weist in diesem Zusammenhang darauf hin, daß 'white lies' manchmal von Lehrern bei der Erklärung von komplexen Zusammenhängen verwendet werden. In diesem Fall erfolgt die Darstellung der Sachverhalte so stark vereinfacht, daß sie im Grunde falsch sind. Diese falschen Erklärungen sind aber immer noch nahe genug an der Wahrheit, um dem Lernenden später das Gesamtverständnis der Zusammenhänge zu erleichtern.78

Die Anforderungen an die Erklärungsfähigkeit hängen auch signifikant von dem Benutzer des Systems ab. Jeder Benutzer stellt aufgrund unterschiedlicher Aufgaben, Erfahrungen und Wissen andere Anforderungen an die Erklärungsfähigkeit.79

Bei der nun folgenden Unterteilung der Benutzer wird nicht von Personen, sondern von ihren Rollen gegenüber dem System ausgegangen. Der Grund hierfür ist die häufig fehlende strikte Aufgabenunterteilung bei Systemen, die sich in der Anwendung befinden.80 Der Experte, der eventuell sein Wissen in die Wissensbasis des Systems eingebracht hat, übernimmt häufig die Wartung des Systems und damit Aufgaben des Knowledge Engineers. Gleichzeitig kann er sich als Sachbearbeiter in einer Anwenderposition befinden. Während der Konsultation besteht die Möglichkeit, daß das System in einem ihm unbekannten Bereich arbeitet und er sich bei dem Versuch, sein Wissen zu vervoll­ständigen, in der Rolle eines Studenten befindet.


75        Vgl. WAHLSTER, W.: Natürlichsprachliche Argumentation in Dialogsystemen: KI-Verfahren zur rekonstruktion und Erklärung approximativer Inferenzprozesse, Reihe Informatik Fachberichte 48, Berlin/Heidelberg/New York 1981, S. 9f.

76       Vgl. STEGEMÜLLER, W.: Wissenschaftliche Erklärungen und Begründungen, Berlin/Heidelberg/New York 1974. Zitiert nach COY, W.; BONSIEPEN, L.: Erfahrung und Berechnung: Kritik der  Expertensystemtechnik,   Reihe Informatik  Fachberichte 229, Subreihe Künstliche Intelligenz, Berlin/Heidelberg/New York/London/Paris/Tokyo/Hong Kong 1989, S. 73.

77        Vgl. COY, W.; BONSIEPEN, L.: Erfahrung und Berechnung: Kritik der Expertensystemtechnik, a.a.O., S. 73.

78        Vgl. SWARTOUT, W.R.: XPLAIN: a System for Creating and Explaining Expert Consulting Programs, in: ARTIFICIAL INTELLIGENCE - AN INTERNATIONAL JOURNAL, Vol. 21, 1983, S. 322 (285-325).

79       Vgl. BOLAM, W.J.: Explanation in Expert Systems, in: Pan Pacific Computer Conference, 1. Conference, Melbourne, 10th-13th Sept. 1985, S. 913f (898-917).
Vgl. auch CONSOLE, L.; FOSSA, M.; TORASSO, P.; MOLINO, G.; CRAVETTO, C: Man-Machine Interaction in Check in: FOX, J; FIESCHI, M.; ENGELBRECHT, R. (EDS.): Proceedings AIME 87, European Conference on Artificial Intelligence in Medicine, Marseille, 31. August - 3. September 1987, Series Lecture Notes in Medical Informatics, Vol. 33, Berlin/ Heidelberg/New York/London/Paris/Tokyo 1987, S. 207 (205-212).