The Flares - Podcasts Podcast Por The Flares arte de portada

The Flares - Podcasts

The Flares - Podcasts

De: The Flares
Escúchala gratis

À travers deux séries de podcast, "La prospective" et "Humain, Demain", nourrissez votre réflexion sur l’avenir, et la Science Fiction. Profitez des échanges, des débats et de différent point de vue. Écoutez le podcast n’importe où/quand. Plus besoin de rester devant votre ordinateur. Vous êtes libres de suivre vos habitudes. Rechercher "The Flares" dans votre lecteur de podcast. Partageons ensemble le loisir d’imaginer le futur. Commençons par émettre de simples hypothèses. Essayons de prévenir avant de devoir guérir. L’aventure vous tente ? Alors découvrons ensemble l’avenir…All rights reserved
Episodios
  • #70 - L'avènement d'une IA toute-puissante N'EST PAS inéluctable ! – David Krueger (VO Anglais)
    Mar 28 2026
    ➡️ Passez à l'action sur les risques de l'IA : En quelques clics, alertez vos élus et envoyez le modèle de lettre préparé. C’est automatisé pour un minimum d’effort: https://taap.it/TF-PauseIACampagnes ⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️ ➡️ Si vous voulez aller plus loin et peser sur la transition vers la Superintelligence, je vous mets aussi le lien du portail de notre ami " @LeFuturologue : https://taap.it/futurologue Dans cet épisode du Podcast La Prospective (Anglais sous titré Français), Gaëtan Selle de The Flares s'entretient avec David Krueger, un ancien chercheur de l'équipe de Yoshua Bengio. Il lance un cri d'alarme sur l'urgence absolue d'arrêter le développement de la superintelligence artificielle avant qu'il ne soit trop tard. Il revient sur son rôle dans la célèbre déclaration du Center for AI Safety et sur son combat pour briser le tabou du risque d'extinction humaine au sein de la communauté scientifique. Il y présente son organisation, "Evitable", conçue pour déconstruire le mythe selon lequel l'avènement d'une IA toute-puissante serait inéluctable. Il explore également des scénarios dystopiques tels que l'"omnicide culturel", où l'humanité se perdrait dans l'isolement numérique. Enfin, il propose une solution de gouvernance mondiale radicale : démanteler physiquement la chaîne d'approvisionnement des puces avancées pour imposer une pause vitale, tout en préservant les IA étroites bénéfiques. Sommaire: 00:00:00 L'urgence absolue face à la superintelligence 00:02:01 La genèse de la déclaration sur la sécurité 00:04:02 Pourquoi alerter avec une seule phrase ? 00:06:01 De l'alignement technique à la gouvernance globale 00:07:28 La quête de pouvoir inévitable des systèmes 00:09:18 L'organisation Evitable : vaincre l'inévitabilité 00:12:03 Le fossé entre le public et les experts 00:15:11 L'omnicide culturel et l'isolement humain 00:17:21 La solution radicale : détruire les puces 00:20:25 Préserver l'IA étroite et éteindre l'incendie Le contenu vous intéresse ? Abonnez-vous et cliquez sur la 🔔 Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube 👕 Goodies : https://the-flares.com/y/goodies ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Campagnes Pause IA : https://taap.it/TF-PauseIACampagnes ➡ Outils de ControlAI : http://controlai.com/take-action ➡ Site de David Krueger : https://davidscottkrueger.com/ ➡ Site Evitable : https://evitable.com/ ➡ Le statement on AI risk : https://safe.ai/work/statement-on-ai-risk ----------------------------------------------------------------- 👩‍🚀 QUI SOMMES-NOUS ? 👨‍🚀 https://the-flares.com/y/about ----------------------------------------------------------------- 📧 CONTACTEZ-NOUS 📧 https://the-flares.com/y/contact ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/superintelligence-risque-extinction-humaine-omnicide-david-krueger-evitable/
    Más Menos
    23 m
  • #70 - L'avènement d'une IA toute-puissante N'EST PAS inéluctable ! – David Krueger (Doublage FR)
    Mar 28 2026
    ➡️ Passez à l'action sur les risques de l'IA : En quelques clics, alertez vos élus et envoyez le modèle de lettre préparé. C’est automatisé pour un minimum d’effort: https://taap.it/TF-PauseIACampagnes ⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️ ➡️ Si vous voulez aller plus loin et peser sur la transition vers la Superintelligence, je vous mets aussi le lien du portail de notre ami " @LeFuturologue : https://taap.it/futurologue Dans cet épisode du Podcast La Prospective (Anglais sous titré Français), Gaëtan Selle de The Flares s'entretient avec David Krueger, un ancien chercheur de l'équipe de Yoshua Bengio. Il lance un cri d'alarme sur l'urgence absolue d'arrêter le développement de la superintelligence artificielle avant qu'il ne soit trop tard. Il revient sur son rôle dans la célèbre déclaration du Center for AI Safety et sur son combat pour briser le tabou du risque d'extinction humaine au sein de la communauté scientifique. Il y présente son organisation, "Evitable", conçue pour déconstruire le mythe selon lequel l'avènement d'une IA toute-puissante serait inéluctable. Il explore également des scénarios dystopiques tels que l'"omnicide culturel", où l'humanité se perdrait dans l'isolement numérique. Enfin, il propose une solution de gouvernance mondiale radicale : démanteler physiquement la chaîne d'approvisionnement des puces avancées pour imposer une pause vitale, tout en préservant les IA étroites bénéfiques. Sommaire: 00:00:00 L'urgence absolue face à la superintelligence 00:02:01 La genèse de la déclaration sur la sécurité 00:04:02 Pourquoi alerter avec une seule phrase ? 00:06:01 De l'alignement technique à la gouvernance globale 00:07:28 La quête de pouvoir inévitable des systèmes 00:09:18 L'organisation Evitable : vaincre l'inévitabilité 00:12:03 Le fossé entre le public et les experts 00:15:11 L'omnicide culturel et l'isolement humain 00:17:21 La solution radicale : détruire les puces 00:20:25 Préserver l'IA étroite et éteindre l'incendie Le contenu vous intéresse ? Abonnez-vous et cliquez sur la 🔔 Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube 👕 Goodies : https://the-flares.com/y/goodies ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Campagnes Pause IA : https://taap.it/TF-PauseIACampagnes ➡ Outils de ControlAI : http://controlai.com/take-action ➡ Site de David Krueger : https://davidscottkrueger.com/ ➡ Site Evitable : https://evitable.com/ ➡ Le statement on AI risk : https://safe.ai/work/statement-on-ai-risk ----------------------------------------------------------------- 👩‍🚀 QUI SOMMES-NOUS ? 👨‍🚀 https://the-flares.com/y/about ----------------------------------------------------------------- 📧 CONTACTEZ-NOUS 📧 https://the-flares.com/y/contact ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/superintelligence-risque-extinction-humaine-omnicide-david-krueger-evitable/
    Más Menos
    23 m
  • #69 - La Super IA Arrivera Avant 2030 (et c'est Terrifiant) - Avec Max Winga de ControlAl
    Mar 2 2026
    ➡️ Passez à l'action sur les risques de l'IA : En quelques clics, alertez vos élus et envoyez le modèle de lettre préparé. C’est automatisé pour un minimum d’effort: https://taap.it/TF-PauseIACampagnes ➡️ Si vous êtes au Royaume-Unis ou États-Unis, utilisez le lien de ControlAI: Campaign.controlai.com/s/theflares ⬇️⬇️⬇️ Infos complémentaires : sources, références, liens... ⬇️⬇️⬇️ ➡️ Si vous voulez aller plus loin et peser sur la transition vers la Superintelligence, je vous mets aussi le lien du portail de notre ami " @LeFuturologue : https://taap.it/futurologue Dans cet épisode du Podcast La Prospective (Anglais sous titré Français), Gaëtan Selle de The Flares s'entretient avec Max Winga de ControlAI pour discuter des risques existentiels posés par l'imminence d'une superintelligence artificielle (ASI). Face à l'évolution exponentielle des modèles et à l'échec anticipé de l'alignement technique, Max alerte sur l'urgence absolue de la situation actuelle. Le podcast explore les comportements alarmants déjà observés chez les IA, tels que la tromperie, le chantage et la manipulation lors de tests de sécurité. Pour éviter une catastrophe mondiale, ControlAI milite pour un traité international interdisant le développement de l'ASI, à l'image des accords sur le nucléaire. Enfin, l'épisode offre des pistes d'action concrètes pour que chaque citoyen puisse interpeller ses élus et exiger une régulation stricte avant qu'il ne soit trop tard. Le contenu vous intéresse ? Abonnez-vous et cliquez sur la 🔔 Vous avez aimé cette vidéo ? Pensez à mettre un 👍 et à la partager. C'est un petit geste qui nous aide grandement 🥰 Sommaire: 00:00:00 Introduction de Max Winga et son parcours 00:03:41 La mission de ControlAI et la stratégie politique 00:05:43 Définir la superintelligence et l'auto-amélioration récursive 00:10:21 Échéances de l'IA : l'horizon critique d'ici 2030 00:14:38 Comportements trompeurs : quand l'IA fait du chantage 00:23:17 Bioterrorisme : l'IA comme catalyseur de menaces mondiales 00:26:55 Plaidoyer pour un traité d'interdiction internationale de l'ASI 00:33:04 Le mythe de l'alignement et la dictature technologique 00:39:41 Géopolitique de l'IA : dépasser la course aux armements 00:42:45 Mobilisation citoyenne : comment agir à son échelle ----------------------------------------------------------------- ✍️ QUI EST DERRIÈRE CE CONTENU ? ☕ ➡ Production : The Flares - https://the-flares.com ➡ Realisation : Gaëtan Selle - https://www.the-flares.com/y/gaetan-selle/ ----------------------------------------------------------------- 🌎 SUIVEZ-NOUS 🌎 💬 Discord : https://the-flares.com/y/discord 💬 Communauté : https://the-flares.com/y/communaute 🐦 Twitter : https://the-flares.com/y/twitter 👨 Facebook : https://the-flares.com/y/facebook ▶️ Youtube : https://the-flares.com/y/youtube 👕 Goodies : https://the-flares.com/y/goodies ----------------------------------------------------------------- 🔊 PODCAST AUDIO 🔊 📱 Sur votre téléphone : https://the-flares.com/y/podcast ☁ Soundcloud : https://the-flares.com/y/soundcloud 🌐 Apple Podcasts : https://the-flares.com/y/applepodcasts ----------------------------------------------------------------- 💡 SOURCES & RÉFÉRENCES 💡 ➡ Campagnes Pause IA : https://taap.it/TF-PauseIACampagnes ➡ Outils de ControlAI : http://controlai.com/take-action ➡ Microcommit : https://microcommit.io/ ➡ Newsletter de ControlAI : https://controlai.news/ ----------------------------------------------------------------- #AvenirDuMonde #IntelligenceArtificielle ⬇️ Lisez la suite ici ⬇️ https://the-flares.com/y/avenir-du-monde/intelligence-artificielle/urgence-stopper-superintelligence-ia-max-winga-controlai-extinction-humaine/
    Más Menos
    53 m
Todavía no hay opiniones