Diese fiktive Grafik auf der linken Seite illustriert ChatGPT 4.o auf die Aufforderung „Erstellen Sie ein Bild über die Struktur Ihres Algorithmus“. Das Vergrößerungsglas stammt von Black Forest Labs Flux Schnell mit einem echten Ausschnitt des Python-Codes

Fairness

Hybridsysteme dokumentieren Verzerrungen in Lernmodellen

Künstliche Intelligenz (KI) setzt sich im täglichen Leben immer mehr durch. Damit stellt sich die Frage: Wie können die negativen Auswirkungen dieser Technologie abgemildert werden? Ein weit verbreitetes Problem in KI-Systemen sind Verzerrungen. In einer aktuellen Studie stellt ein Forschungsteam des L3S und der Leibniz Universität Hannover ein hybrides KI-System vor, das Verzerrungen in Modellen des maschinellen Lernens (ML) dokumentiert. Die innovative Technik kann dazu beitragen, die Transparenz und Interpretierbarkeit dieser komplexen Systeme zu verbessern.

Verzerrungen in KI-Modellen können aus unterschiedlichen Gründen auftreten, da die Systeme während des Entwicklungsprozesses anfällig sind für menschliche Eingaben. Außerdem werden diese Systeme oft auf Daten trainiert, die gesellschaftliche Ungleichheiten widerspiegeln. Ihr Einsatz würde also bestimmte Gruppen systematisch benachteiligen.

Kombination von KI-Paradigmen

Die Autoren schlagen ein hybrides KI-System vor, das Komponenten der subsymbolischen und der symbolischen KI kombiniert, um Verzerrungen auf jeder Stufe der ML-Pipeline zu dokumentieren. Das System kann mit zwei Ansätzen implementiert werden: Der erste ermöglicht eine feinkörnige Verfolgung von Verzerrungen über die gesamte ML-Pipeline hinweg; der zweite Ansatz bietet einen breiteren Überblick über erkannte Verzerrungen in den Eingabedaten und Vorhersagen.

Ein Schlüsselelement dieses Systems: Die Dokumentation ist nicht nur für menschliche Analytiker verständlich, sondern auch maschinenlesbar. Dies bildet die Grundlage für eine bessere Interpretierbarkeit und ein besseres Verständnis dafür, wie sich Verzerrungen auf ML-Systeme in einem bestimmten Kontext auswirken.

Verzerrungen bei der Klassifizierung von Fake News

Die Wissenschaftler haben ihren Ansatz anhand eines praktischen Beispiels evaluiert, das auf der Erkennung von Fake News basiert. Das hybride KI-System Doc-Bias beschrieb semantisch eine Pipeline zur Klassifizierung von Fake News anhand zweier Benchmark-Datensätze, die die Verteilung von Nachrichteninhalten, Nutzerdaten und Informationen von Nachrichtenherausgebern verwendeten. Die Implementierung von Doc-Bias generierte dann Bias-Spuren, die das Innenleben des Klassifizierungssystems widerspiegeln − von der Eingabe bis zur Ausgabe. Die Autoren konnten signifikante Verzerrungen in den Datensätzen identifizieren, die die Vorhersagen der Modelle beeinflussten.

Herausforderungen bei unausgewogenen Datensätzen

Die Ergebnisse dieser Arbeit zeigen, dass selbst unter der Voraussetzung ausgewogener Datensätze während der Datenvorverarbeitung die internen Prozesse des KI-Modells eine attributorientierte Verzerrung ausgleichen können, die sich erheblich auf die Gesamtgenauigkeit und Wirksamkeit des Fake-News-Erkennungssystems auswirkt. Die Autoren berichten konkret über eine starke Schieflage in der Verteilung der Eingabevariablen in Richtung des Fake-News-Labels und deckten auf, wie eine prädiktive Variable zu mehr Einschränkungen im Lernprozess führt. Insgesamt heben sie die offenen Herausforderungen beim Training von Modellen mit unausgewogenen Datensätzen hervor.

Dieses Problem ist nicht auf die Erkennung von Fake News beschränkt. Verzerrungen in KI-Systemen können zu systematischen Fehlern in fast allen Bereichen der KI-Anwendung führen: von der automatischen Gesichtserkennung bis hin zu Entscheidungsfindungssystemen im Bankwesen.

Transparenz und Verantwortlichkeit sind unerlässlich

Das vorgeschlagene hybride KI-System ist ein neuartiges Verfahren, das erkannte Verzerrungen in KI-Modellen systematisch dokumentiert und die menschliche Analyse bei späteren Bemühungen um eine Entschärfung der Verzerrungen unterstützen kann. Solche Fortschritte sind entscheidend, um sicherzustellen, dass KI-Systeme nicht nur genau sind, sondern auch fairer und transparenter werden.

Die Autoren betonen, dass die Dokumentation von Voreingenommenheit kein Allheilmittel ist, sondern nur einer von vielen Schritten, um Verantwortlichkeit bei KI-Entwicklern und -Nutzern zu schaffen. Zu einer sozial verantwortlichen KI gehört auch Transparenz im gesamten Entwicklungsprozess. Die Erstellung einer gründlichen Dokumentation kann dazu beitragen.

Mayra Russo, Yasharajsinh Chudasama, Disha Purohit, Sammy Sawischa, Maria-Esther Vidal: Employing Hybrid AI Systems to Trace and Document Bias in ML Pipelines. IEEE Access 12: 96821-96847 (2024) ieeexplore.ieee.org/document/10596297

Kontakt

Mayra Russo, M. Sc.

Mayra Russo ist L3S-Doktorandin im Projekt NoBias. Sie beschäftigt sich mit der Entwicklung computergestützter Methoden zur Dokumentation von Verzerrungen in KI-Systemen, die semantische Datenmodelle verwenden. Außerdem interessiert sie sich für die Untersuchung der sozialen Implikationen der Datafizierung.

Prof. Dr. Maria-Esther Vidal

L3S-Mitglied Maria-Esther Vidal ist ordentliche Professorin an der Leibniz Universität Hannover und leitet die Arbeitsgruppe Wissenschaftliches Datenmanagement (SDM) an der TIB − Leibniz-Informationszentrum für Technik und Naturwissenschaften. Sie forscht in den Bereichen Datenmanagement, semantische Datenintegration und maschinelles Lernen über Wissensgraphen.