Don't Die: AI Alignment, Part 1
No se pudo agregar al carrito
Solo puedes tener X títulos en el carrito para realizar el pago.
Add to Cart failed.
Por favor prueba de nuevo más tarde
Error al Agregar a Lista de Deseos.
Por favor prueba de nuevo más tarde
Error al eliminar de la lista de deseos.
Por favor prueba de nuevo más tarde
Error al añadir a tu biblioteca
Por favor intenta de nuevo
Error al seguir el podcast
Intenta nuevamente
Error al dejar de seguir el podcast
Intenta nuevamente
-
Narrado por:
-
De:
In this pivotal episode of Significant, Dr. David Filippi confronts the existential stakes of AI alignment with his signature blend of scientific rigor, philosophical depth, and personal insight. Drawing on everything from the Chicxulub impact to the fragile humanity of a child’s laughter, he asks the most urgent question of our time: What if we build a superintelligence that doesn’t love our children?
This is the hinge of the season—a direct call to those at the cutting edge of AI development to rethink the goals, values, and moral frameworks that will shape our shared future.
Not just another AI episode: it’s the reason this podcast exists. Don’t miss it.
Todavía no hay opiniones