TrustKG: Zuverlässige KI für die medizinische Entscheidungsfindung

L3S Best Publication of the Quarter (Q4/2024 – Q1/2025)
Kategorie: Knowledge Graphs und Interpretable Hybrid AI 

Toward Interpretable Hybrid AI: Integrating Knowledge Graphs and Symbolic Reasoning in Medicine 

Autoren: Yashrajsinh Chudasama, Hao Huang, Disha Purohit, Maria-Esther Vidal  

Veröffentlicht in: IEEE Access

Das Papier in Kürze: 

Künstliche Intelligenz (KI) verändert das Gesundheitswesen, aber viele KI-Systeme arbeiten als „Blackbox“. Das heißt, sie treffen Entscheidungen, ohne klar zu erklären, wie oder warum. In der Medizin sind Vertrauen und Transparenz von entscheidender Bedeutung, da die Nutzer (Kliniker, Patienten und Mediziner) die Gründe für KI-gesteuerte Empfehlungen verstehen müssen. Unsere Forschung stellt TrustKG vor, neurosymbolische Systeme, die Wissensgraphen (KGs), die medizinisches Wissen strukturieren, mit symbolischem Denken und maschinellem Lernen kombinieren, um besser interpretierbare und zuverlässige KI-Modelle zu schaffen. Wir wenden die neurosymbolischen Systeme von TrustKG auf Lungenkrebs an und helfen bei der Vorhersage des Krankheitsverlaufs und der Behandlungseffekte durch Link-Prädiktion (Auffinden versteckter Verbindungen in medizinischen Daten) und kontrafaktische Schlussfolgerungen (Untersuchung von „Was-wäre-wenn“-Behandlungsszenarien). Unsere Ergebnisse zeigen, dass neurosymbolische Ansätze die medizinische Entscheidungsfindung verbessern können und Ärzten klarere und evidenzbasierte Erkenntnisse liefern. 

Welches Problem lösen Sie mit Ihrer Forschung? 

Unsere Forschung befasst sich mit dem Problem der KI-Transparenz in der Medizin. Viele KI-Modelle, die heute im Gesundheitswesen eingesetzt werden, können zwar genaue Vorhersagen machen, aber es mangelt ihnen an Erklärbarkeit, so dass es für Ärzte schwierig ist, KI-gesteuerten Empfehlungen zu vertrauen und sie zu validieren. Unser Ansatz, TrustKG, ist ein neuro-symbolisches System, das strukturiertes medizinisches Wissen - dargestellt als KGs - mit datengesteuerten Ansätzen und symbolischem Denken und Lernen verbindet. Dieser Ansatz stellt sicher, dass medizinische KI-Systeme nicht nur genaue Vorhersagen, sondern auch für den Menschen verständliche Erklärungen liefern und so das Vertrauen und die Zuverlässigkeit bei der klinischen Entscheidungsfindung verbessern. 

Was ist neu an Ihrer Forschung? 

Im Gegensatz zu herkömmlichen KI-Modellen, die nur aus Daten lernen, wird in unserer Forschung ein neurosymbolischer KI-Ansatz eingeführt, der Wissensgraphen, symbolisches Denken und maschinelles Lernen kombiniert. Dies ermöglicht es der KI, medizinische Zusammenhänge zu verstehen, versteckte Verbindungen in Patientendaten vorherzusagen und alternative Behandlungsergebnisse durch kontrafaktisches Denken zu simulieren. Durch die Verschmelzung von strukturiertem medizinischem Wissen mit KI-Lernen schaffen wir KI-Systeme, die sowohl erklärungsfähiger als auch anpassungsfähiger für komplexe Herausforderungen im Gesundheitswesen sind. 

Welche potenziellen Auswirkungen haben Ihre Ergebnisse? 

Unsere Ergebnisse haben das Potenzial, die Ergebnisse für Patienten zu verbessern, indem sie Ärzten helfen, bessere, evidenzbasierte Entscheidungen zu treffen. Durch die Bereitstellung transparenter, interpretierbarer KI-Empfehlungen kann TrustKG die Diagnosegenauigkeit, Behandlungsplanung und Risikovorhersage in der Medizin verbessern. Darüber hinaus überbrückt dieser Ansatz die Kluft zwischen KI-Entwicklern und medizinischen Fachkräften und fördert so das Vertrauen in KI-gesteuerte Gesundheitslösungen. Über die Medizin hinaus können neurosymbolische KI-Techniken auch in anderen Bereichen eingesetzt werden, in denen Erklärbarkeit von entscheidender Bedeutung ist, z. B. im Finanzwesen, im Recht und in der Politik, um sicherzustellen, dass KI-gesteuerte Entscheidungen transparent, fair und nachvollziehbar bleiben. 

Link zum Paper: ieeexplore.ieee.org/document/10839382