3.2. Anforderungen an die Erklärungsfähigkeit von wissensbasierten Systemen
Wie aus dem vorherigen Kapitel ersichtlich ist, wird der Erklärungsfähigkeit zumindest für die Benutzerakzeptanz eine hohe Bedeutung beigemessen. Diese Bedeutung spiegelt sich in den Anforderungen an die Erklärung wieder.
Die Anforderungen an die Erklärungsfähigkeit können unterteilt werden in benutzerabhängige und benutzerunabhängige Anforderungen.
WAHLSTER75 nennt unter anderem folgende benutzerunabhängige Ziele für die Erklärungen einer Erklärungskomponente:
- korrekt: Die Schlußfolgerungen und andere Informationen müssen richtig wiedergegeben werden.
- verständlich: In der Sprache, dem Inhalt und der Menge müssen sie dem Benutzer angepaßt sein.
- informativ: Die Erklärungen müssen einen hohen Erklärungswert haben und dürfen keine irreführenden Details enthalten.
- kommunikativ adäquat: Die Erklärungs- und Detailebene soll der Situation gerecht werden
- kohärent: Die Erklärungen sollen auf den vorangegangenen Dialog Bezug nehmen.
Bei dieser Aufzählung mag das Kriterium Vollständigkeit vermißt werden. Dieses Kriterium wird häufig im allgemeinen Sprachgebrauch zusammen mit Erklärungen verwendet. Aus der angestrebten Adäquanz von Erklärungen ergibt sich jedoch, daß Erklärungen immer nur zweckgebunden und nie vollständig sein können. Eine wirklich vollständige Erklärung würde letztendlich eine Erklärung des gesamten Universums erfordern.76
Einige Forscher machen Einschränkungen bezüglich des ersten Kriteriums. Sie weisen darauf hin, daß dieses Kriterium verletzt werden kann, ohne daß die Akzeptanz und der Wert der Erklärung beeinträchtigt werden. Die Erklärung muß nur bezogen auf den aktuellen Kenntnisstand des Umfeldes korrekt sein.77 Als Beispiel sei erwähnt, daß noch vor wenigen hundert Jahren folgende Erklärung als klar und schlüssig galt: Die Erde muß flach sein, da sonst die Menschen auf der anderen Seite herunterfallen würden.
SWARTOUT weist in diesem Zusammenhang darauf hin, daß 'white lies' manchmal von Lehrern bei der Erklärung von komplexen Zusammenhängen verwendet werden. In diesem Fall erfolgt die Darstellung der Sachverhalte so stark vereinfacht, daß sie im Grunde falsch sind. Diese falschen Erklärungen sind aber immer noch nahe genug an der Wahrheit, um dem Lernenden später das Gesamtverständnis der Zusammenhänge zu erleichtern.78
Die Anforderungen an die Erklärungsfähigkeit hängen auch signifikant von dem Benutzer des Systems ab. Jeder Benutzer stellt aufgrund unterschiedlicher Aufgaben, Erfahrungen und Wissen andere Anforderungen an die Erklärungsfähigkeit.79
Bei der nun folgenden Unterteilung der Benutzer wird nicht von Personen, sondern von ihren Rollen gegenüber dem System ausgegangen. Der Grund hierfür ist die häufig fehlende strikte Aufgabenunterteilung bei Systemen, die sich in der Anwendung befinden.80 Der Experte, der eventuell sein Wissen in die Wissensbasis des Systems eingebracht hat, übernimmt häufig die Wartung des Systems und damit Aufgaben des Knowledge Engineers. Gleichzeitig kann er sich als Sachbearbeiter in einer Anwenderposition befinden. Während der Konsultation besteht die Möglichkeit, daß das System in einem ihm unbekannten Bereich arbeitet und er sich bei dem Versuch, sein Wissen zu vervollständigen, in der Rolle eines Studenten befindet.
75 Vgl. WAHLSTER, W.: Natürlichsprachliche Argumentation in
Dialogsystemen: KI-Verfahren zur rekonstruktion und Erklärung approximativer Inferenzprozesse, Reihe Informatik
Fachberichte 48, Berlin/Heidelberg/New York 1981, S. 9f.
76 Vgl. STEGEMÜLLER, W.: Wissenschaftliche Erklärungen und
Begründungen, Berlin/Heidelberg/New York 1974. Zitiert nach
COY, W.; BONSIEPEN, L.: Erfahrung und Berechnung: Kritik
der Expertensystemtechnik, Reihe Informatik Fachberichte 229, Subreihe Künstliche Intelligenz, Berlin/Heidelberg/New York/London/Paris/Tokyo/Hong Kong 1989, S. 73.
77 Vgl. COY, W.; BONSIEPEN, L.: Erfahrung und Berechnung:
Kritik der Expertensystemtechnik, a.a.O., S. 73.
78 Vgl. SWARTOUT, W.R.: XPLAIN: a System for Creating and
Explaining Expert Consulting Programs, in: ARTIFICIAL
INTELLIGENCE - AN INTERNATIONAL JOURNAL, Vol. 21, 1983,
S. 322 (285-325).
79 Vgl. BOLAM, W.J.: Explanation in Expert Systems, in: Pan
Pacific Computer Conference, 1. Conference, Melbourne,
10th-13th Sept. 1985, S. 913f (898-917).
Vgl. auch CONSOLE, L.; FOSSA, M.; TORASSO, P.; MOLINO, G.; CRAVETTO, C: Man-Machine Interaction in Check in: FOX, J; FIESCHI, M.; ENGELBRECHT, R. (EDS.): Proceedings AIME 87, European Conference on Artificial Intelligence in Medicine, Marseille, 31. August - 3. September 1987, Series Lecture Notes in Medical Informatics, Vol. 33, Berlin/ Heidelberg/New York/London/Paris/Tokyo 1987, S. 207 (205-212).
|