22.11.2022
Workshopbericht „Moral Responsibility and Explainable Artificial Intelligence“ mit Carlos Zednik am 09.11.2022
Am 09.11.2022 gab Carlos Zednik, Assistant Professor für Philosophie und Ethik an der TU Eindhoven, einen Workshop für die Stipendiat:innen des Schaufler Kolleg@TU Dresden. Zu Beginn erläuterte Prof. Zednik in einem kurzen Vortrag mit dem Titel „Moral Responsibility and Explainable Artificial Intelligence“, was XAI-Methoden zur Lösung des Problems der Verantwortungslücke (responsibility gap) beitragen können.
Der Begriff responsibility gap wurde 2004 von Andreas Martin in die KI-Ethik eingeführt. Die zentrale Idee hinter diesem Konzept ist, dass lernende maschinelle Systeme Entscheidungen treffen, für deren Folgen die Programmier:innen, Ingenieur:innen oder Aufsichtsbehörden nicht mehr vollständig verantwortlich gemacht werden können. Verantwortlich für das Verhalten einer Maschine kann Prof. Zednik zufolge nur der- oder diejenige sein, der/die das Verhalten vorhersagen, kontrollieren und rechtfertigen kann. Diese drei Anforderungen sind jedoch im Fall von ML-Systemen nicht erfüllt, da diese Maschinen ‚intransparent‘ (opaque) sind.
Künstlich intelligente Maschinen operieren mit einer großen Anzahl von Parametern, die nichtlinear interagieren. Zusätzlich werden die Werte dieser Parameter nicht von einem Menschen festgesetzt, sondern von der Maschine in einem Trainingsprozess gelernt und sind in vielen Fällen nicht semantisch auswertbar. All diese Faktoren tragen zur Intransparenz von ML-Systemen bei, sie erschweren es zu erklären ‚warum die Maschine tut, was sie tut‘. Die Intransparenz von ML-Systeme, so die zentrale These von Prof. Zedniks Vortrag, erschwert wiederum die Zuschreibung von moralischer Verantwortung. Wenn Programmier:innen, Ingenieur:innen und Aufsichtsbehörden die Parameter, mit denen ein ML-System operiert, nicht kennen, können sie die Güte der Entscheidungen, die dieses System trifft, nicht moralisch bewerten.
Prof. Zednik argumentierte in seinem Vortrag dafür, dass die analytischen Methoden der Explainable Artificial Intelligence (XAI) genutzt werden können, um das Verhalten einer intransparenten und autonomen KI vorhersagen, kontrollieren, und rechtfertigen zu können. Dies könne wiederum dazu beitragen, die moralische Verantwortung bestimmter Akteure wiederherzustellen, und die Verantwortungslücke somit zu schließen. Beispielsweise könne man mithilfe von XAI auswerten, ob eine KI, die über die Vergabe von Krediten entscheidet, dies auf der Grundlage von diskriminierenden Parametern tut. Erst wenn Programmier:innen und Aufsichtsbehörden wissen, wie die Entscheidung zustande kommt, argumentierte Prof. Zednik, können sie Ihre Verantwortung gegenüber Anwender*innen und Nutzer*innen wahrnehmen.
Prof. Zednik verdeutlichte seine These anhand von einigen XAI-Methoden, die bereits heute zur Verfügung stehen. Lineare Approximationsverfahren, wie z. B. local interpretable
model-agnostic explanation (LIME), oder counterfactual explanations können genutzt werden, um das Verhalten eines ML-Systems vorherzusagen. Mithilfe von Feature-detector identification und surrogate models können, unter bestimmten Umständen, kausal relevante Strukturen in einem künstlichen Neuronalen Netz identifiziert werden. Dies kann wiederum dabei helfen, eine größere Kontrolle über KI-Systeme zu bekommen. Saliency-Mapping-Techniken können verwendet werden, um Input-Elemente zu bestimmen, die den Output besonders stark beeinflussen. Auf dieser Grundlage kann dann eine normative Bewertung des Verhaltens des Systems erfolgen – basieren die Entscheidungen auf moralisch zulässigen oder wünschenswerten Parametern? Im Prinzip können XAI-Techniken also zu einer moralischen Evaluation von algorithmischen Entscheidungs- und Handlungsprozessen beitragen. Jedoch unterliegen diese Methoden gewissen Beschränkungen, besonders schwierig ist es nach wie vor, kausal relevante Strukturen zu identifizieren und Parameter semantisch zu interpretieren. Nichtsdestotrotz schloss Prof. Zendik mit einem vorsichtig optimistischen Fazit: XAI-Techniken können zur Erleichterung von Vorhersagen, (manchmal) zur Rechtfertigung und (manchmal, vielleicht) zur Kontrolle von KI-Systemen eingesetzt werden.
Bericht: Miriam Gorr