Vier verschiedene KI-Bildgeneratoren wurden jeweils gebeten, das Thema mit dieser Aufforderung zu illustrieren (ohne weitere Angaben zum spezifischen Bildinhalt oder Stil usw.): 'Bild einer giftigen Diskussion auf einer Internetplattform mit einem empörten Nutzer an seinem Schreibtisch, Blick von der Seite'. Von links nach rechts sind die - eher klischeehaften - Ergebnisse von: Stabile Diffusion XL, DALL-E 3, Flux Schnell und Midjourney.
Soziale Medien
Höflicher mit KI
Diskussionen im Internet sind oft ein heißes Pflaster. Anonymität und emotionale Bindungen führen schnell zu toxischen Kommentaren, die den Diskurs ersticken. Ein Forscherteam des L3S zeigt in einer aktuellen Studie, wie künstliche Intelligenz (KI) und Natural Language Processing (NLP) helfen können, solche Argumente umzuformulieren – und zwar so, dass die ursprünglichen Gedanken erhalten bleiben, aber unpassende Äußerungen entfernt werden. Doch wie gelingt dieser Balanceakt?
Entschärfen durch Umformulieren
Bisher verlassen sich Plattformen auf ihre Nutzer oder automatische Erkennungstools, um unangemessene Inhalte zu kennzeichnen, die anschließend noch von Moderatoren geprüft und gegebenenfalls entfernt werden. Doch dieser Ansatz ist nicht nur zeitaufwendig und teuer, sondern für die Moderatoren auch belastend. Die Lösung könnte in einer neuen Technologie liegen: Künstliche Intelligenz, die in der Lage ist, unangemessene Argumente automatisch umzuformulieren. „Unser Ziel ist es, nicht einfach nur zu löschen, sondern den Diskurs zu retten, indem wir Argumente entschärfen und gleichzeitig ihre Aussage erhalten“, sagt Timon Ziegenbein, Erstautor der Studie.
KI lernt dazu
Das Herzstück des Ansatzes ist ein Large Language Model (LLM), das durch Reinforcement Learning (verstärkendes Lernen) trainiert wird. Dabei wird das Modell darauf getrimmt, die Angemessenheit zu steigern und außerdem den ursprünglichen Inhalt eines Arguments zu bewahren. Die KI „lernt“ also, unangemessene Argumente so umzuformulieren, dass sie respektvoller und sachlicher werden. „Anders als bei einfachen Stilübertragungsaufgaben, die nur den Tonfall eines Textes ändern, erfordert das Umschreiben unangemessener Argumente auch inhaltliche Änderungen auf Dokumentenebene, nicht nur auf Satzebene“, sagt Ziegenbein. Dies ermöglicht es, Inhalte hinzuzufügen oder zu entfernen, um die Sachlichkeit und Höflichkeit zu erhöhen. Ein Beispiel aus der Studie zeigt die Wirksamkeit: Ein aggressives und emotional aufgeladenes Argument wurde in eine ruhigere, nachdenklichere Version umformuliert – ohne den Kern der Aussage zu verfälschen.
Doch wie gut funktioniert dieser Ansatz in der Praxis? Um das herauszufinden, verglichen die Forscher die KI-generierten Umschreibungen mit denen von Menschen. Die Ergebnisse waren vielversprechend: „Unser Modell erreicht eine signifikante Verbesserung der Angemessenheit und bleibt dabei überraschend nah an der ursprünglichen Aussage“, so Ziegenbein.
Grenzen und ethische Fragen
Trotz der Erfolge stößt die KI auch an ihre Grenzen, vor allem bei sehr kurzen oder stark unangemessenen Argumenten. „In solchen Fällen könnte es sinnvoller sein, den gesamten Text zu entfernen, anstatt ihn umzuformulieren“, schreiben die Autoren. Zudem werfen solche Technologien ethische Fragen auf: Darf eine Plattform Inhalte einfach umformulieren, ohne die Zustimmung des Autors? Hier sehen die Wissenschaftler weiteren Forschungsbedarf.
Die Ergebnisse der Studie zeigen jedoch, dass KI ein wertvolles Werkzeug sein könnte, um Online-Diskussionen zivilisierter zu gestalten und Moderatoren zu entlasten. Der nächste Schritt besteht darin, die Technologie weiter zu verfeinern und ethische Richtlinien für den Einsatz solcher Tools zu entwickeln. „Unser Ansatz ist ein erster Schritt“, so die Forscher, „aber es bleibt noch viel zu tun, um die Technologie in der Praxis sicher und effektiv einzusetzen.“ Fest steht: Der Ansatz, toxische Inhalte durch Umschreibungen zu entschärfen, hat Potenzial – sowohl für Plattformen als auch für die Nutzer.
Timon Ziegenbein, Gabriella Skitalinskaya, Alireza Bayat Makou, Henning Wachsmuth: LLM-based Rewriting of Inappropriate Argumentation using Reinforcement Learning from Machine Feedback. ACL (1) 2024: 4455-4476 aclanthology.org/2024.acl-long.244.pdf
Kontakt
Timon Ziegenbein
Timon Ziegenbein ist wissenschaftlicher Mitarbeiter und Promotionsstudent im L3S-Projekt "OASiS: Objective Argument Summarization for Search"
Prof. Dr. Henning Wachsmuth
L3S-Mitglied Henning Wachsmuth leitet das Fachgebiet Natural Language Processing am Institut für Künstliche Intelligenz der Leibniz Universität Hannover.