Explainable AI - Wenn KI-Systeme nachvollziehbare Entscheidungen treffen
Update: 2025-05-01
Description
Ob Kredite, Jobs oder medizinische Diagnosen: Bei Entscheidungen darüber wird Künstliche Intelligenz bereits eingesetzt. Dabei sind die Einschätzungen komplexer KI-Systeme für Menschen oft kaum im Detail verständlich. Lässt sich das ändern? Carina Schroeder erzählt Ralf Krauter in dieser Folge von Lösungsansätzen für "erklärbare KI" - und jeder Menge Problemen.
Das erwartet Euch in dieser Episode:
(03:10 ) Was ist "Explainable AI" überhaupt?
(08:37 ) Die App "SkinDoc" soll KI-Entscheidungen nachvollziehbar machen
(13:46 ) Erklärbarkeit ist nicht gleichbedeutend mit Verständlichkeit
(20:32 ) Große Sprachmodelle: Generativer KI beim Denken zuschauen
(23:25 ) Erste Lösungsansätze weisen Weg in die Zukunft
Unsere GesprächspartnerInnen in dieser Folge:
Mehr zum Thema in der Deutschlandfunk App:
Weiterführende Links:
Wenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Deutschlandfunk App.
Folgt dem Deutschlandfunk auch auf Instagram und Facebook.
Das erwartet Euch in dieser Episode:
(03:10 ) Was ist "Explainable AI" überhaupt?
(08:37 ) Die App "SkinDoc" soll KI-Entscheidungen nachvollziehbar machen
(13:46 ) Erklärbarkeit ist nicht gleichbedeutend mit Verständlichkeit
(20:32 ) Große Sprachmodelle: Generativer KI beim Denken zuschauen
(23:25 ) Erste Lösungsansätze weisen Weg in die Zukunft
Unsere GesprächspartnerInnen in dieser Folge:
- Adriano Lucieri, KI-Forscher am Deutschen Forschungszentrum für Künstliche Intelligenz DFKI
- Marina Tropmann-Frick, Professorin für Data Science an der HAW Hamburg
- Rosina Weber, Professorin für Informationswissenschaft und Informatik an der Drexel University in Philadelphia
Mehr zum Thema in der Deutschlandfunk App:
- "KI verstehen" fragt nach: Wie Microsoft KI vertrauenswürdig machen will
- Intransparente KI: In den Fängen der Algorithmen
- Erklärbar: Modell-Algorithmen bringen Licht in die Blackbox der KI
Weiterführende Links:
- Wiley-Studie von Rosina Weber (englisch): XAI ist in Schwierigkeiten
- DFKI-Text über SkinDoc: Erklärbare KI für die Tele-Dermatologie
- arXiv-Studie von Marina Tropmann-Frick (englisch): Eine Literaturübersicht zum Thema Responsible AI
Wenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Deutschlandfunk App.
Folgt dem Deutschlandfunk auch auf Instagram und Facebook.
Comments
In Channel