#54 Diskriminierung durch Algorithmen: Wenn KI ungerecht entscheidet
No se pudo agregar al carrito
Add to Cart failed.
Error al Agregar a Lista de Deseos.
Error al eliminar de la lista de deseos.
Error al añadir a tu biblioteca
Error al seguir el podcast
Error al dejar de seguir el podcast
-
Narrado por:
-
De:
In dieser aufschlussreichen Folge begrüßen Alwine und Matúš einen ganz besonderen Gast: Alex Ulbricht, frisch gekürte IT Woman of the Year 2025.
Gemeinsam diskutieren wir über Schattenseite der KI: algorithmischer Bias und Diskriminierung. Alex erklärt eindrücklich, wie verzerrte historische Daten unbemerkt in KI-Systeme gelangen und zu voreingenommenen Entscheidungen in kritischen Bereichen wie Recruiting, Kreditvergabe und sogar in der Medizin führen können.
Doch es bleibt nicht bei der Problembeschreibung. Die Folge liefert konkrete Lösungsansätze: Alex stellt Strategien und spezialisierte Tools vor, mit denen Unternehmen Bias nicht nur erkennen, sondern auch aktiv neutralisieren können. Sie betont, dass eine saubere Data Governance und menschliche Expertise ("Human in the Loop") keine optionalen Extras, sondern die Grundlage für eine faire und erfolgreiche KI-Implementierung sind. Am Ende wird klar: Fairness in der KI ist nicht nur eine ethische Verpflichtung, sondern auch ein knallharter Wirtschaftsfaktor.
Timeline00:00 Intro & Vorstellung Alex Ulbricht 02:07 Alex's Spezialisierung auf KI-Fairness (Responsible AI) 04:52 Die Hauptrisiken von KI & die Definition von Bias 10:50 Strategien gegen Bias: Tools, Prozesse und der "Human in the Loop" 37:47 Das Buch "Unsichtbare Frauen" & die realen Konsequenzen von Datenlücken
🔗 Weiterführende Links zur FolgeBuchtipp: Unsichtbare Frauen von Caroline Criado-Perez LinkedIn von Alex Ulbricht: Profil von Alex Ulbricht LinkedIn von Klartext KI: Klartext KI