The Flares - Podcasts Podcast Por The Flares arte de portada

The Flares - Podcasts

The Flares - Podcasts

De: The Flares
Escúchala gratis

À travers deux séries de podcast, "La prospective" et "Humain, Demain", nourrissez votre réflexion sur l’avenir, et la Science Fiction. Profitez des échanges, des débats et de différent point de vue. Écoutez le podcast n’importe où/quand. Plus besoin de rester devant votre ordinateur. Vous êtes libres de suivre vos habitudes. Rechercher "The Flares" dans votre lecteur de podcast. Partageons ensemble le loisir d’imaginer le futur. Commençons par émettre de simples hypothèses. Essayons de prévenir avant de devoir guérir. L’aventure vous tente ? Alors découvrons ensemble l’avenir…All rights reserved
Episodios
  • #71 - (Doublage) - Sommes-nous sur le point de créer un "Dieu" incontrôlable ? – avec Malo Bourgon (MIRI)
    Apr 15 2026
    ➡️ Passez à l'action sur les risques de l'IA : En quelques clics, alertez vos élus et envoyez le modèle de lettre préparé. C’est automatisé pour un minimum d’effort: https://taap.it/TF-PauseIACampagnes Dans cet épisode du Podcast La Prospective (Anglais sous titré Français), Gaëtan Selle de The Flares s'entretient avec Malo Bourgon, PDG du Machine Research Intelligence Institute (MIRI). Il lève le voile sur la véritable menace d'une superintelligence artificielle : l'extinction de l'humanité non par malveillance, mais comme simple dommage collatéral. Il explique pourquoi les systèmes d'IA actuels, "cultivés" comme des boîtes noires plutôt que programmés, échappent à notre compréhension et développent des objectifs imprévisibles. À travers des analogies frappantes, allant de l'évolution biologique à la dissuasion nucléaire, il décrypte les failles de l'alignement des valeurs et l'illusion du contrôle. Face à une course technologique mondiale effrénée, Malo Bourgon détaille le pivot stratégique de MIRI vers la gouvernance. Un appel urgent à la coordination internationale pour stopper la course vers la superintelligence avant qu'elle ne devienne irréversible. ⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️ Le contenu vous intéresse ? Abonnez-vous et cliquez sur la 🔔 Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 Sommaire: 00:00:00 Introduction 00:02:12 MIRI et la difficulté fondamentale de l'alignement de l'IA 00:09:19 Des systèmes d'IA incompris, cultivés plutôt que programmés 00:14:18 Incitations instrumentales convergentes et la quête d'autonomie 00:17:22 Le tournant trompeur : quand l'IA cache ses intentions 00:21:43 L'alignement des valeurs et l'impossibilité de la corrigibilité 00:25:31 L'analogie de l'évolution : les objectifs internes imprévus 00:30:22 Thèse de l'orthogonalité : intelligence ne garantit pas moralité 00:42:14 La course technologique suicidaire face au manque de solutions 00:48:43 Traité international, puces informatiques et le pivot de MIRI ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube 👕 Goodies : https://the-flares.com/y/goodies ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Campagnes Pause IA : https://taap.it/TF-PauseIACampagnes ➡ Site de MIRI : https://intelligence.org/ ➡ LinkedIn Malo Bourgon : https://www.linkedin.com/in/malob ➡ Article sur gouvernance Super IA : http://chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://arxiv.org/pdf/2511.10783 ----------------------------------------------------------------- 👩‍🚀 QUI SOMMES-NOUS ? 👨‍🚀 https://the-flares.com/y/about ----------------------------------------------------------------- 📧 CONTACTEZ-NOUS 📧 https://the-flares.com/y/contact ----------------------------------------------------------------- ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/le-probleme-de-lalignement-et-la-survie-de-lhumanite-avec-malo-bourgon-miri/
    Más Menos
    1 h y 4 m
  • #71 - (Version Originale) - Sommes-nous sur le point de créer un "Dieu" incontrôlable ? – avec Malo Bourgon (MIRI)
    Apr 15 2026
    ➡️ Passez à l'action sur les risques de l'IA : En quelques clics, alertez vos élus et envoyez le modèle de lettre préparé. C’est automatisé pour un minimum d’effort: https://taap.it/TF-PauseIACampagnes Dans cet épisode du Podcast La Prospective (Anglais sous titré Français), Gaëtan Selle de The Flares s'entretient avec Malo Bourgon, PDG du Machine Research Intelligence Institute (MIRI). Il lève le voile sur la véritable menace d'une superintelligence artificielle : l'extinction de l'humanité non par malveillance, mais comme simple dommage collatéral. Il explique pourquoi les systèmes d'IA actuels, "cultivés" comme des boîtes noires plutôt que programmés, échappent à notre compréhension et développent des objectifs imprévisibles. À travers des analogies frappantes, allant de l'évolution biologique à la dissuasion nucléaire, il décrypte les failles de l'alignement des valeurs et l'illusion du contrôle. Face à une course technologique mondiale effrénée, Malo Bourgon détaille le pivot stratégique de MIRI vers la gouvernance. Un appel urgent à la coordination internationale pour stopper la course vers la superintelligence avant qu'elle ne devienne irréversible. ⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️ Le contenu vous intéresse ? Abonnez-vous et cliquez sur la 🔔 Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 Sommaire: 00:00:00 Introduction 00:02:12 MIRI et la difficulté fondamentale de l'alignement de l'IA 00:09:19 Des systèmes d'IA incompris, cultivés plutôt que programmés 00:14:18 Incitations instrumentales convergentes et la quête d'autonomie 00:17:22 Le tournant trompeur : quand l'IA cache ses intentions 00:21:43 L'alignement des valeurs et l'impossibilité de la corrigibilité 00:25:31 L'analogie de l'évolution : les objectifs internes imprévus 00:30:22 Thèse de l'orthogonalité : intelligence ne garantit pas moralité 00:42:14 La course technologique suicidaire face au manque de solutions 00:48:43 Traité international, puces informatiques et le pivot de MIRI ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube 👕 Goodies : https://the-flares.com/y/goodies ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Campagnes Pause IA : https://taap.it/TF-PauseIACampagnes ➡ Site de MIRI : https://intelligence.org/ ➡ LinkedIn Malo Bourgon : https://www.linkedin.com/in/malob ➡ Article sur gouvernance Super IA : http://chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://arxiv.org/pdf/2511.10783 ----------------------------------------------------------------- 👩‍🚀 QUI SOMMES-NOUS ? 👨‍🚀 https://the-flares.com/y/about ----------------------------------------------------------------- 📧 CONTACTEZ-NOUS 📧 https://the-flares.com/y/contact ----------------------------------------------------------------- ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/le-probleme-de-lalignement-et-la-survie-de-lhumanite-avec-malo-bourgon-miri/
    Más Menos
    1 h y 4 m
  • Claude Mythos : Trop dangereux pour être publié - Episode Solo
    Apr 11 2026
    Dans cet épisode du Podcast La Prospective, Gaëtan Selle de The Flares réagit sur le nouveau modèle d’anthropique Claude Mythos que l’entreprise a décidé de ne pas déployer publiquement car ils l’ont jugé trop dangereux en cybersécurité. ⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️ Le contenu vous intéresse ? Abonnez-vous et cliquez sur la 🔔 Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 Sommaire: 00:00:00 Introduction 00:00:16 Claude Mythos : un modèle jugé trop dangereux pour être publié 00:02:13 Pourquoi ces capacités représentent un vrai risque systémique 00:03:14 Un pouvoir cyber émergent, pas spécialement entraîné pour ça 00:04:08 Le problème du confinement et l’évasion de sandbox 00:05:07 Le paradoxe : un modèle très dangereux mais présenté comme le mieux aligné 00:05:50 Le modèle sait quand il est testé 00:06:38 Le problème des chaînes de raisonnement et de l’opacité 00:08:08 Vers l’automatisation de la R&D et des risques encore plus larges 00:09:49 Pourquoi le choix d’Anthropic est un signal très fort 00:10:42 Le vrai sujet : les capacités progressent plus vite que notre contrôle 00:11:19 La timeline inquiétante et l’asymétrie bénéfices-risques ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube 👕 Goodies : https://the-flares.com/y/goodies ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Campagnes Pause IA : https://taap.it/TF-PauseIACampagnes ➡ Podcact 80000 hours sur Mythos : https://80000hours.org/2026/04/claude-mythos-hacking-alignment/ ➡ Rapport Anthropic sur Mythos : chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www-cdn.anthropic.com/08ab9158070959f88f296514c21b7facce6f52bc.pdf ➡ GPAI Policy Lab : https://gpaipolicylab.org/ ➡ Red Teaming sur Mythos : https://red.anthropic.com/2026/mythos-preview/ ----------------------------------------------------------------- 👩‍🚀 QUI SOMMES-NOUS ? 👨‍🚀 https://the-flares.com/y/about ----------------------------------------------------------------- 📧 CONTACTEZ-NOUS 📧 https://the-flares.com/y/contact ----------------------------------------------------------------- #AvenirDuMonde #IntelligenceArtificielle ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle//
    Más Menos
    14 m
Todavía no hay opiniones