Alucinando con la IA generativa en AWS  By  cover art

Alucinando con la IA generativa en AWS

By: Amazon Web Services España
  • Summary

  • Las aplicaciones de IA generativa han suscitado mucha atención y fomentado la imaginación del público general, ya que pueden ayudar a reinventar la mayoría de las experiencias y aplicaciones de los clientes, crear nuevas aplicaciones nunca antes vistas y ayudar a los clientes a alcanzar nuevos niveles de productividad. En este podcast vamos a tratar las distintas temáticas relacionadas con esta nueva tecnología y vamos a contar como puede implantarse en AWS: Prompt engineering, Retrieval Augmented Generation, fine-tunning, modelos fundacionales disponibles, mejores prácticas para desplegar los modelos... y cualquier temática que tome relevancia en este nuevo y cambiante campo de juego tecnológico!
    Copyright Amazon Web Services España
    Show more Show less
Episodes
  • #006 - Productivizando la IA generativa: LLMOps
    Feb 16 2024
    Después de haber visto las principales estrategias para el uso de la IA generativa toca poner el proyecto en producción. Y ahí es donde las particularidades tanto del Machine Learning como de la IA generativa hacen que tengamos que tener en cuenta elementos adicionales a los de las aplicaciones tradicionales. Conceptos como MLOps, LLMOps, FMOps e incluso XOps toman relevancia. En este episodio, Eduardo Ordax, arquitecto de soluciones en AWS especialista en el tema nos cuenta todo lo que necesitamos saber de dichas prácticas y qué herramientas tenemos en AWS para implementarlas.
    En los siguientes links puedes profundizar sobre los conceptos comentados en el episodio:
    MLOps Matrix guide: https://www.linkedin.com/feed/update/urn:li:activity:7160874825714937856/
    Prompting, RAG o fine-tunning: https://www.linkedin.com/posts/eordax_rag-promptengineering-finetuning-activity-7159432843708805120-uYZJ?utm_source=share&utm_medium=member_desktop

    Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
    Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
    Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/

    Con unas grandes bases técnicas, Eduardo tiene 15 años de experiencia en ventas y desarrollo de negocio. Durante su carrera ha liderado equipos multi-funcionales y recientemente se ha especializado en inteligencia artificial y machine learning. En este entorno tan dinámico las organizaciones se estan dando cuenta que necesita acelerar su implantación y, con este objetivo, Eduardo lidera el Go to Market de AI/ML de AWS en EMEA, ayudando a clientes de todo el mundo a aprovechar el potencial de la inteligencia artificial.
    Es un apasionado de las discusiones sobre estos temas y de las conexiones con compañeros del sector para intercambiar conocimiento y experiencias.
    Contacta con Eduardo Ordax en LinkedIn en https://www.linkedin.com/in/eordax/
    Show more Show less
    1 hr and 1 min
  • #005 - Desarrollando aplicaciones de IA generativa
    Jan 18 2024
    En este capítulo nos ponemos en la piel del desarrollador de aplicaciones y hablamos sobre todo lo que hay que tener en cuenta cuando se crean aplicaciones basadas en IA generativa. Y para eso hemos sacado a Marcia Villalba de su Podcast de Charlas Técnicas de AWS y nos la hemos traído a esta playlist!

    En el siguiente blog de Marcia tienes acceso a múltiples recursos para ver y probar las técnicas descritas en el capítulo:
    https://blog.marcia.dev/building-ai-apps-with-serverless-resources

    Si quieres hacer tus primeros pasos con Amazond Bedrock y sus funcionalidades de Knowledge Bases y Agents para implementar escenarios de RAG y de ReACt, puedes visitar el siguiente blog:
    https://aws.amazon.com/blogs/aws/preview-connect-foundation-models-to-your-company-data-sources-with-agents-for-amazon-bedrock/

    El podcast de Charlas técnicas de AWS está disponible en https://podcast.marcia.dev/

    Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
    Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
    Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/

    Marcia es una Developer Advocate para AWS en el equipo de Serverless, también es la anfitriona del canal de Youtube FooBar Serverless, y del podcast oficial Charlas Técnicas de AWS.
    Marcia tiene 20 años de experiencia trabajando como programadora de software profesional, creando software que escala a millones de usuarios y con un alto desempeño. Es una apasionada de la filosofía DevOps y de las buenas prácticas de desarrollo.
    Contacta con Marcia Villalba en LinkedIn en https://www.linkedin.com/in/marciavillalba/
    Show more Show less
    1 hr and 9 mins
  • #004 - Fine tunning de modelos generativos
    Nov 23 2023
    Después de los capítulos sobre Retrieval Augmented Generation y Prompt Engineering, completamos la tríada de estrategias de base para el uso de IA generativa con datos propios con este capítulo dedicado al fine-tunning. Angel Conde, arquitecto de soluciones en AWS, nos cuenta todo lo que necesitas saber sobre esta técnica y como poder implementarla en AWS. ¿Qué es el fine tunning? ¿Cuándo aplicar el fine tunning? ¿Cómo hacerlo? ¿Qué es el olvido catastrófico? Todas las respuestas a estas preguntas y otras en este capítulo.

    Si quieres probar los conceptos aparecidos en el capítulo, puedes hacerlo siguiendo los pasos descritos en los siguientes links:
    https://aws.amazon.com/es/blogs/machine-learning/fine-tune-and-deploy-mistral-7b-with-amazon-sagemaker-jumpstart/
    https://aws.amazon.com/es/blogs/machine-learning/fine-tune-text-to-image-stable-diffusion-models-with-amazon-sagemaker-jumpstart/

    Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
    Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
    Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/

    Angel Conde es especialista de analítica de Datos en AWS. Aparte de analítica, forma parte del equipo de especialización de IA/ML de AWS. Antes de estar en AWS dirigió un equipo de investigación en Analítica y AWS, tiene una tesis en NLP y ha dirigido dos tesis en colaboración con diferentes universidades sobre Deep Learning y detección de anomalías en series temporales.
    Contacta con Angel Conde en LinkedIn en https://www.linkedin.com/in/acmanjon/
    Show more Show less
    39 mins

What listeners say about Alucinando con la IA generativa en AWS

Average customer ratings

Reviews - Please select the tabs below to change the source of reviews.