Ekip 2022 Workshop in Wien
Wie geht ethische KI? Wie entwickele ich KI-Systeme, die vertrauenswürdig sind?
Spannende und wichtige Fragen, die nicht nur wegen der immer umgreifender und mächtiger werdenden KI-Systeme sondern auch, ganz konkret, wegen der nahenden KI-Regulierungen dringend werden.
Diese Fragen können nur von einem diversen Team aus unterschiedlichsten Disziplinen beantwortet werden. Die Aufgabe, vertrauenswürdige KI-Systeme zu entwickeln, kann nicht allein auf technischer Ebene gelöst werden.
Wir haben daher zum ersten Ekip Workshop eingeladen. Anfang März trafen sich Experten aus Sozialwissenschaften, Philosophie und der Informatik in Wien, um zu diskutieren, wie ethische KI praktisch gelingen kann.
Es gibt bereits viele gute Vorschläge für die Prinzipien für ethische KI. Wie man diese jedoch umsetzt in konkreten Entwicklungsprojekten ist eine offene und sehr interessante Frage. Im Workshop haben wir ein konkretes Beispiel präsentiert und unser Framework für vertrauenswürdige KI darauf angewendet.
Das Beispiel: in der medizinischen Diagnostik werden bildgebende Verfahren eingesetzt, um etwa Anomalien an der Aorta festzustellen. Radiologische Untersuchungen werden im klinischen Prozess üblicherweise zwischen Radiolog:innen und behandelnden Arzt:innen besprochen, um zu einer Diagnose zu gelangen. Computergestützte- oder generierte Zweitmeinungen werden schon heute vielfach genutzt. In naher Zukunft werden KI-Systeme, insbesondere solche basierend auf tiefem maschinellen Lernen, radiologische Aufnahmen mit sehr hoher Genauigkeit automatisiert in präzise Diagnostik überführen können. Wie sollten solche Systeme genutzt werden? Ersetzen sie einen oder mehrere Ärzt:innen? Ist es überhaupt ethisch vertretbar, solche Systeme (vorausgesetzt sie funktionieren tatsächlich so gut) nicht zu nutzen? Und damit vor allem: wie müssen solche KI-Systeme konkret aussehen, damit sie vertrauensvoll eingesetzt werden können? Und was bedeutet das für ihre Entwicklung?
Im Workshop sind wir diesen Fragen anhand der Begriffe Erklärbarkeit und Verantwortung nachgegangen.
Wenn eine Radiologin oder behandelnde Ärztin die Diagnose eines KI-Systems übernimmt, müsste sie Stand heute den Bericht eigenhändig unterschreiben. Damit übernimmt sie faktisch die Verantwortung für die Analyse des KI-Systems. Aber ist die Verantwortung denn nicht eigentlich verteilt? Und kann man bzw. sollte man Verantwortung nicht nur für etwas übernehmen, was man auch vollständig versteht?
Muss das KI-System also vollständig erklärbar sein? Bzw. sollte es sich selbst erklären? Und wenn ja, wie? Was bedeutet Erklärbarkeit in diesem Kontext?
Eine Annäherung: Ein vertrauenswürdiges KI-System sollte sich jedem erklären, der fragt (“answerability”). Eine Erklärung ist ausreichend, wenn sie befriedigt und sich „gut anfühlt“ (was selbst noch genauer zu bestimmen sei).
Ein KI-System, welches Diagnosen anhand von medizinischen Bildern stellt, müsste demnach Erklärungen anbieten für Ärzt:innen, für Patient:innen, für Fachpersonal, welches den Algorithmus überprüft und wahrscheinlich für viele mehr. Diese Personen können für ihre Aussagen über und mit dem KI-System nur Verantwortung übernehmen, wenn sie es verstehen und die Erklärung, die das System anbietet, nachvollziehen können. Wie kommt das KI-System dazu, diese Erklärungen anzubieten? Diese Erklärbarkeit muss im Entwicklungs- und Design-Prozess des KI-Systems mitgedacht werden. Und zwar aus all diesen Perspektiven, für die es nachher Erklärungen bieten soll.
Dem „Ethical Requirement Engineering“ Ansatz folgend können Erklärbarkeits-Anforderungen an das zu entwickelnde System formuliert werden. Diese können auf technisch-statistischer Ebene auf eine Validierung des Systems abzielen, Transparenz für Unsicherheiten und Modell-Ausgaben einfordern oder beispielsweise die Darlegung von Gründen zum Gegenstand haben.
Eine spannende Diskussion unter den Teilnehmern drehte darum, wie genau diese Erklärbarkeit von KI hergestellt werden kann. Sind Machine Learning Modelle überhaupt erklärbar? Welche epistemologische Grundlage kann für die Erklärbarkeit in diesem Sinne herhalten? Wer erklärt bzw. wer liefert die Erklärungen? Und sollte der Begriff Intelligenz unter diesen Gesichtspunkten nicht besser gestrichen (bzw. ersetzt) werden aus KI?
Was klar ist: all diese Fragen müssen im von Anfang bis Ende im Entwicklungsprozess und der Anwendung von KI-Systemen diskutiert werden. In allen Stufen des sogenannten ML-Ops (Machine Learning Operations) Zyklus müssen die Überlegungen des „Ethical Requirement Engineering“ einfließen. Und zwar unter Beteiligung von Philosoph:innen, Informatiker:innen, Designer:innen, Psycholog:innen, Anwender:innen und Patient:innen.
Eine weitere wichtige Erkenntnis des Workshops: KI-Systeme sind in ihrer Entwicklung und Auslieferung niemals abgeschlossen. Sie sollten vielmehr als fortlaufende Dienstleistung verstanden werden. Das Problem, welches mit Hilfe des KI-System gelöst werden soll, erfordert ständige Überprüfung, Anpassung, Erklärung, Weiterentwicklung. Vertrauenswürdige KI ist eine Dienstleistung, die vor allem im Dialog zwischen all jenen besteht, die in der Entwicklung und Anwendung dieser KI involviert sind. In diesem Sinne freuen wir uns auf die nächsten Schritte hin zu einem anwendbaren Framework für Ethische KI-Entwicklung und eine Fortsetzung des Dialogs im und über das Team von Ekip hinaus!
Mehr über EKIP: https://ekip.ai/de/