Nachbericht: ZVKI | Fachforum (10.11.2022) – Vertrauen durch Transparenz: Wie viel Transparenz benötigt vertrauenswürdige KI?
Vera Dünninger (iRights.Lab)
17.11.2022
Das Zentrum für vertrauenswürdige Künstliche Intelligenz (ZVKI) befasst sich mit unterschiedlichen Ansätzen, die gegenwärtig als geeignete Maßnahmen gelten, um mehr Transparenz zu schaffen. Hierzu zählen Prüfungen und Zertifizierungen, Erklärungsmethoden komplexer KI-Modelle und das Bereitstellen von Informationen für Bürger*innen.
Dafür haben wir drei fachliche Arbeitsgruppen ins Leben gerufen, die nach einem halben Jahr Arbeit nun – mit ihren jeweiligen Blickwinkeln auf Transparenz von KI-Systemen – erste Ergebnisse einer breiten Fachöffentlichkeit präsentierten.
Was bedeutet Transparenz für KI-Systeme?
Nach einer Begrüßung durch Philipp Otto, Direktor und Geschäftsführer des iRights.Lab, folgte eine thematische Einordnung durch Dr. Theresa Züger, Leiterin des AI & Society Lab am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG).
Beim Schlagwort Transparenz hat die promovierte Medienwissenschaftlerin etwas vor Augen, das uns Sachverhalte durchschauen und das uns mit diesem Wissen handeln lässt. Die Verwendung des Begriffs Transparenz bezieht sich dabei auf Rechenschaft (Accountability), Offenheit – Transparenz als vertrauensbildende Maßnahme – sowie Effizienz und Entwicklung, die gesellschaftliches Verständnis voraussetzen.
In diesem Zusammenhang stellte Züger einen Transparenz-Zyklus für Künstliche Intelligenz vor, der die Kriterien Rechenschaft, Offenheit und Effizienz abdeckt. Züger fehlen bislang anerkannte Methoden und Wege für Entwickler*innen und Akteur*innen, um KI-Systeme transparenter zu gestalten.
Auf die Eröffnungsrede folgten Impulse von Mitgliedern der drei interdisziplinär aufgestellten Fach-AGs. Prof. Dr. Ute Schmidt (Lehrstuhl für Kognitive Systeme, Universität Bamberg), Mitglied der Fach-AG Verbraucher*innen-Information, und Prof. Dr. Claudia Heß (Professur für Digitale Transformation, IU Internationale Hochschule), Mitglied der Fach-AG Zertifizierung, stellten die Ergebnisse ihrer Arbeit anhand von aufgestellten Thesen vor.
Transparenz im Kontext von Verbraucher*inneninformation
„Erklärbare KI eignet sich, um die Ergebnisse eines KI-Systems für Verbraucher*innen nachvollziehbar zu machen. Dazu müssen Methoden der erklärbaren KI niedrigschwellig aufbereitet und mit Nutzer*innen erprobt werden.“
Franziska Busse (ZVKI), Leiterin Fach-AG Verbraucher*innen-Information
Wie können wir Nutzer*innen und Betroffenen verständlich darstellen, warum ein KI-System ein bestimmtes Ergebnis ausgibt und welche Handlungsempfehlungen resultieren daraus? Dieser Fragestellung widmete sich in den letzten Monaten die Fach-AG Verbraucher*innen-Information mit Expert*innen aus Verbraucherschutz- und Bildungsorganisationen sowie aus der Wissenschaft. Ute Schmidt stellte die Ergebnisse dieser Arbeit vor.
Grundsätzlich eigneten sich XAI-Methoden, um die Ergebnisse eines KI-Systems für Verbraucher*innen nachvollziehbar zu machen. Solche Erklärungen sollten jedoch niedrigschwellig aufbereitet sein und je nach Kontext durch weitere Erklärformate ergänzt werden. Die Mitglieder der Fach-AG stellten zudem fest, dass Erklärungen alleine nicht ausreichen, um die Vertrauenswürdigkeit von KI-Systemen zu fördern. Darüber hinaus sind weitere Maßnahmen notwendig: Beispielsweise sollten Verbraucher*innen – wo möglich – realisierbare Handlungsempfehlungen aufgezeigt werden. Außerdem bedürfe es unabhängiger Beschwerdestellen.
Transparenz im Kontext von Zertifizierung
„Verbraucher*innenschutz durch zertifizierte KI kann gelingen, wenn Betroffeneninteressen und dynamische Veränderungen angemessen berücksichtigt werden.“
Dr. Gergana Baeva (ZVKI), Leiterin Fach-AG Zertifizierung
Die Fach-AG Zertifizierung setzte sich mit Fragen der Standardisierung, Evaluation und Zertifizierung von KI-Systemen auseinander. Ausgangspunkt der Diskussionen waren dabei stets die Verbraucher*innen und der mögliche Mehrwert, den eine unabhängige Prüfung von KI-Anwendungen für sie darstellen könnte. Die Ergebnisse der Fach-AG präsentierte Claudia Heß.
Wie muss eine Zertifizierung gestaltet sein, damit Verbraucher*innen davon profitieren?
Die Teilnehmenden der Fach-AG, zu denen Expert*innen von Standardisierungsorganisationen wie DIN und DEKRA sowie aus Industrie, Zivilgesellschaft und Wissenschaft zählen, stellten Herausforderungen bei der Umsetzung von KI-Prüfungen sowie bei der Vermittlung und Beteiligung von Bürger*innen an diesem Prozess fest. So sollten KI-Komponenten nicht für sich allein genommen evaluiert werden, sondern das Gesamtsystem, in das sie eingebettet sind. Um Verbraucher*inneninteressen bei der Zertifizierung zu berücksichtigen, sollten Verbraucher*innen direkt an Prüfverfahren beteiligt und Expert*innen für die Interessen von Betroffenen sensibilisiert werden. Zudem sollten Prüfergebnisse adressatenorientiert vermittelt werden, damit sowohl Lai*innen als auch informierte Expert*innen alle relevanten Informationen nachvollziehen können.
Nachhaltigkeit in KI messbar machen
„Wir müssen diskutieren, wann der Einsatz von KI-Systemen hinsichtlich bestimmter Nachhaltigkeitskriterien sinnvoll ist und wann es besser ist, auf ihn zu verzichten.“
Jaana Müller-Brehm (ZVKI), Lisa Schmechel (ZVKI), Leiterinnen Fach-AG KI und Nachhaltigkeit
Stellvertretend für die Fach-AG KI und Nachhaltigkeit, die sich damit beschäftigt, ein Nachhaltigkeitsverständnis zu entwickeln und zu schärfen, das die Vertrauenswürdigkeit von KI-Systemen fördern kann, kam Prof. Lynn Kaack (Computer Science and Public Policy, Hertie School) zu Wort. Sie stellte ihre Forschung zum Einsatz maschinellen Lernens zur Bekämpfung des Klimawandels vor.
Ihre Botschaft: Die Klima-und Umweltauswirkungen einer KI-Anwendung sind explizit Teil vertrauenswürdiger KI. Hier bedarf es politischer Maßnahmen für mehr Transparenz.
Wie können wir die Transparenz von KI-Anwendungen für Verbraucher*innen umsetzen?
In der anschließenden Fish-Bowl-Diskussion kamen die drei Repräsentantinnen der Fach-AGs zusammen, um – unter Moderation von Michael Puntschuh (iRights.Lab) – übergreifende Herausforderungen zu diskutieren, etwa die geteilte Verantwortung für Nachhaltigkeit oder Transparenz. Es wurde dafür plädiert, Verbraucher*innen in den Prozessen nicht nur zu beachten, sondern sie an ihnen zu beteiligen. Nur so könne etwa geprüft werden, ob eine Zertifizierung Betroffene wirklich beachtet oder die Erklärungen der Ergebnisse von KI-Systemen tatsächlich verständlich sind.
Das ZVKI-Fachforum verstand sich als interaktive Online-Veranstaltung, in der Beteiligung ausdrücklich erwünscht war. Mit diesem Format möchte das ZVKI seinem Auftrag als Dialog- und Netzwerkplattform gerecht werden und alle Interessierten dazu einladen, gemeinsam vertrauenswürdige KI zu gestalten.
Sie wollen sich ausführlicher mit der Transparenz von KI-Systemen beschäftigen?
Wir widmen dem Thema Transparenz eine ganze Ausgabe unseres Fach-Magazins Missing Link. Darin stellen wir die Begriffe Transparenz, Nachvollziehbarkeit und Erklärbarkeit vor. Wir fragen uns, ob sich Bürger*innen tatsächlich mehr Transparenzmaßnahmen wünschen und welche das sind. Zudem zeigen wir auf, wie weit sie bereits gediehen sind und welche Fragen bislang offenbleiben.