✍️ Les IA hallucinent de plus en plus (et ça ne va pas s'arranger) Podcast Por  arte de portada

✍️ Les IA hallucinent de plus en plus (et ça ne va pas s'arranger)

✍️ Les IA hallucinent de plus en plus (et ça ne va pas s'arranger)

Escúchala gratis

Ver detalles del espectáculo

Acerca de esta escucha

Des études récentes révèlent des taux d’hallucination qui empirent concernant les chatbots d'IA. Quelles conséquences ? Comment faire face à ce phénomène ?

L’intelligence artificielle générative est partout… mais elle reste profondément bancale. Le phénomène est de plus en plus inquiétant : les hallucinations des IA, ces moments où les modèles inventent des faits, des citations, voire des événements entiers. Plus grave encore, ces erreurs semblent augmenter à mesure que les modèles deviennent plus puissants.

Pourquoi ces hallucinations surviennent-elles ? Quelles sont les limites structurelles des IA actuelles, comme celles de ChatGPT ou Gemini ? Et surtout, que faire face à cette technologie qui se généralise sans qu’on puisse pleinement lui faire confiance ? Médias, justice, médecine : aucun domaine n’est à l’abri des conséquences d’une réponse erronée générée par une IA.

Alors que les géants du secteur promettent des solutions (alignement des modèles, apprentissage renforcé, avertissements…), certains experts comme Yann LeCun doutent que le problème puisse un jour être complètement résolu.

-----------
🎧 L'Hebdo Premium : https://m.audiomeans.fr/s/S-xylotlSe
🌍 Web : https://mondenumerique.info
🗞️ Newsletter : https://mondenumerique.substack.com
📹 YouTube : https://www.youtube.com/@mondenumerique
♥️ Soutien : https://donorbox.org/monde-numerique

Distribué par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

adbl_web_global_use_to_activate_T1_webcro805_stickypopup
Todavía no hay opiniones