Épisode 126- Le « débiaisage » des données et les errances algorithmiques
No se pudo agregar al carrito
Solo puedes tener X títulos en el carrito para realizar el pago.
Add to Cart failed.
Por favor prueba de nuevo más tarde
Error al Agregar a Lista de Deseos.
Por favor prueba de nuevo más tarde
Error al eliminar de la lista de deseos.
Por favor prueba de nuevo más tarde
Error al añadir a tu biblioteca
Por favor intenta de nuevo
Error al seguir el podcast
Intenta nuevamente
Error al dejar de seguir el podcast
Intenta nuevamente
-
Narrado por:
-
De:
Consultez-vous ChatGPT pour vos problèmes de santé? Peut-on «débiaiser» des données? Un énoncé de principes éthiques vous suffit-il pour prendre des décisions délicates concernant le développement ou l'utilisation de l'IA? Voilà autant de questions difficiles que nous abordons cette semaine.
Au programme:
- ChatGPT-Health : Une consultation LLM par jour éloigne le médecin pour toujours (?)
- Biais humains, « débiaisages » des données et errances algorithmiques
- Inefficacités et limitations pratiques de l’application des principes et idéaux qui guident le développement et l’utilisation de l’IA.
- INESSS - Modalité d’évaluation des technologies numériques en santé et en services sociaux
- Combat des LLM - Dernier examen pour l’humanité (la suite)
- Robots conversationnels - Confidences et soutien moral. AI Chatbots for Mental Health Support
- Énoncé de principes pour une utilisation responsable de l'intelligence artificielle par les organismes publics.
- Technosolutionnisme et autres rêves d’ingénierie
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D
BaristIAs: Véronique Tremblay, Frédérick Plamondon, Benjamin Leblanc.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Mineo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc, Marie-Ève Vachon Savary.
En musique :
- Musique: PP2, Aubert Sénéchal (2025) (c)
Support the show
Todavía no hay opiniones