Conditional Intelligence: Inside the Mixture of Experts architecture
No se pudo agregar al carrito
Solo puedes tener X títulos en el carrito para realizar el pago.
Add to Cart failed.
Por favor prueba de nuevo más tarde
Error al Agregar a Lista de Deseos.
Por favor prueba de nuevo más tarde
Error al eliminar de la lista de deseos.
Por favor prueba de nuevo más tarde
Error al añadir a tu biblioteca
Por favor intenta de nuevo
Error al seguir el podcast
Intenta nuevamente
Error al dejar de seguir el podcast
Intenta nuevamente
-
Narrado por:
-
De:
Send us a text
What if not every part of an AI model needed to think at once? In this episode, we unpack Mixture of Experts, the architecture behind efficient large language models like Mixtral. From conditional computation and sparse activation to routing, load balancing, and the fight against router collapse, we explore how MoE breaks the old link between size and compute. As scaling hits physical and economic limits, could selective intelligence be the next leap toward general intelligence?
Sources
- What is mixture of experts? (IBM)
- Applying Mixture of Experts in LLM Architectures (Nvidia)
- A 2025 Guide to Mixture-of-Experts for Lean LLMs
- A Comprehensive Survey of Mixture-of-Experts: Algorithms, Theory, and Applications
Todavía no hay opiniones