Episodes
-
Después de haber visto las principales estrategias para el uso de la IA generativa toca poner el proyecto en producción. Y ahí es donde las particularidades tanto del Machine Learning como de la IA generativa hacen que tengamos que tener en cuenta elementos adicionales a los de las aplicaciones tradicionales. Conceptos como MLOps, LLMOps, FMOps e incluso XOps toman relevancia. En este episodio, Eduardo Ordax, arquitecto de soluciones en AWS especialista en el tema nos cuenta todo lo que necesitamos saber de dichas prácticas y qué herramientas tenemos en AWS para implementarlas.
En los siguientes links puedes profundizar sobre los conceptos comentados en el episodio:
MLOps Matrix guide: https://www.linkedin.com/feed/update/urn:li:activity:7160874825714937856/
Prompting, RAG o fine-tunning: https://www.linkedin.com/posts/eordax_rag-promptengineering-finetuning-activity-7159432843708805120-uYZJ?utm_source=share&utm_medium=member_desktop
Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/
Con unas grandes bases técnicas, Eduardo tiene 15 años de experiencia en ventas y desarrollo de negocio. Durante su carrera ha liderado equipos multi-funcionales y recientemente se ha especializado en inteligencia artificial y machine learning. En este entorno tan dinámico las organizaciones se estan dando cuenta que necesita acelerar su implantación y, con este objetivo, Eduardo lidera el Go to Market de AI/ML de AWS en EMEA, ayudando a clientes de todo el mundo a aprovechar el potencial de la inteligencia artificial.
Es un apasionado de las discusiones sobre estos temas y de las conexiones con compañeros del sector para intercambiar conocimiento y experiencias.
Contacta con Eduardo Ordax en LinkedIn en https://www.linkedin.com/in/eordax/ -
En este capítulo nos ponemos en la piel del desarrollador de aplicaciones y hablamos sobre todo lo que hay que tener en cuenta cuando se crean aplicaciones basadas en IA generativa. Y para eso hemos sacado a Marcia Villalba de su Podcast de Charlas Técnicas de AWS y nos la hemos traído a esta playlist!
En el siguiente blog de Marcia tienes acceso a múltiples recursos para ver y probar las técnicas descritas en el capítulo:
https://blog.marcia.dev/building-ai-apps-with-serverless-resources
Si quieres hacer tus primeros pasos con Amazond Bedrock y sus funcionalidades de Knowledge Bases y Agents para implementar escenarios de RAG y de ReACt, puedes visitar el siguiente blog:
https://aws.amazon.com/blogs/aws/preview-connect-foundation-models-to-your-company-data-sources-with-agents-for-amazon-bedrock/
El podcast de Charlas técnicas de AWS está disponible en https://podcast.marcia.dev/
Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/
Marcia es una Developer Advocate para AWS en el equipo de Serverless, también es la anfitriona del canal de Youtube FooBar Serverless, y del podcast oficial Charlas Técnicas de AWS.
Marcia tiene 20 años de experiencia trabajando como programadora de software profesional, creando software que escala a millones de usuarios y con un alto desempeño. Es una apasionada de la filosofía DevOps y de las buenas prácticas de desarrollo.
Contacta con Marcia Villalba en LinkedIn en https://www.linkedin.com/in/marciavillalba/ -
Episodes manquant?
-
Después de los capítulos sobre Retrieval Augmented Generation y Prompt Engineering, completamos la tríada de estrategias de base para el uso de IA generativa con datos propios con este capítulo dedicado al fine-tunning. Angel Conde, arquitecto de soluciones en AWS, nos cuenta todo lo que necesitas saber sobre esta técnica y como poder implementarla en AWS. ¿Qué es el fine tunning? ¿Cuándo aplicar el fine tunning? ¿Cómo hacerlo? ¿Qué es el olvido catastrófico? Todas las respuestas a estas preguntas y otras en este capítulo.
Si quieres probar los conceptos aparecidos en el capítulo, puedes hacerlo siguiendo los pasos descritos en los siguientes links:
https://aws.amazon.com/es/blogs/machine-learning/fine-tune-and-deploy-mistral-7b-with-amazon-sagemaker-jumpstart/
https://aws.amazon.com/es/blogs/machine-learning/fine-tune-text-to-image-stable-diffusion-models-with-amazon-sagemaker-jumpstart/
Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/
Angel Conde es especialista de analítica de Datos en AWS. Aparte de analítica, forma parte del equipo de especialización de IA/ML de AWS. Antes de estar en AWS dirigió un equipo de investigación en Analítica y AWS, tiene una tesis en NLP y ha dirigido dos tesis en colaboración con diferentes universidades sobre Deep Learning y detección de anomalías en series temporales.
Contacta con Angel Conde en LinkedIn en https://www.linkedin.com/in/acmanjon/ -
Amazon Bedrock está ya disponible de manera general y presente en la región europea de Frankfurt, así que la GDPR ya no es excusa para no usarlo. En este capítulo Antonio Rodríguez nos da todos los detalles sobre el servicio gestionado para el uso de modelos de IA generativa en AWS y algunas pistas sobre nuevas funcionalidades que estarán disponibles en un futuro cercano.
Si quieres probar los conceptos aparecidos en el capítulo, puedes hacerlo directamente en los playgrounds de la consola de Bedrock o a través del workshop de Bedrock disponible en https://github.com/aws-samples/amazon-bedrock-workshop
Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/
Antonio Rodríguez es Arquitecto de Soluciones especialista en Inteligencia Artificial y Machine Learning en Amazon Web Services. En su día a día, ayuda a empresas de todos los tamaños a resolver sus desafíos a través de la innovación, y a crear nuevas oportunidades de negocio con servicios de AI/ML en AWS. Fuera del trabajo, disfruta pasando tiempo con su familia y haciendo deporte con sus amigos.
Contacta con Antonio Rodríguez en LinkedIn en https://www.linkedin.com/in/antrodriguez/ -
Entender y dominar el prompt engineering es un requisito que se está convirtiendo en imprescindible para cualquier profesional en el ámbito de la inteligencia artificial generativa. En este capítulo, Carlos Milán (como la goma de borrar) nos contará en qué consiste y cuáles son las principales estrategias existentes.
Si quieres probar tu mismo los conceptos aparecidos en el capítulo, puedes hacerlo directamente probando tus prompts en los playgrounds de los principales modelos en la consola de SageMaker en https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-use.html#jumpstart-foundation-models-use-console o bien utilizando un Notebook en SageMaker Studio desplegando una copia privada de un modelo en https://github.com/aws-samples/prompt-engineering-playground-with-sagemaker
Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/
Carlos Milán es ingeniero posgraduado en Técnicas Informáticas Avanzadas por la Universidad de Almería y Arquitecto de Soluciones en AWS. Con más de 14 años de dedicación al cloud, Carlos alinea los objetivos y los retos de negocio de los clientes con el diseño de soluciones que aprovechan el potencial de AWS en la transformación de infraestructuras de TI, aplicaciones, procesos y personas. Además, Carlos es un apasionado de la retro-informática, en especial de los ordenadores MSX y Commodore Amiga; y actualmente hospeda una de las pocas BBS activas en España con acceso a FidoNet.
Contacta con Carlos Milán en LinkedIn en https://www.linkedin.com/in/cmilanf -
Los casos de uso de la IA generativa se están multiplicando pero un denominador común en muchos de ellos es la necesidad de utilizar información personalizada, propia y privada para generar las respuestas sin que dicha información haya formado parte del entrenamiento de un modelo, sin olvidarnos también de evitar las alucinaciones que pueden producirse.
En este capítulo Pablo Nuñez Pölcher nos cuenta como el uso de estrategias como la generación amplificada por recuperación de información (Retrieval Augmented Generation o RAG) son claves para conseguir estos objetivos. Veremós en qué se basa esta estrategia, qué componentes tecnológicos son necesarios, las distintas alternativas para su implementación en AWS y como escojer la más adecuada: desde el servicio gestionado Amazon Kendra hasta los distintos modelos fundacionales para el cálculo de embeedings, pasando por las bases de datos vectoriales disponibles.Si quieres probar tu mismo los conceptos aparecidos en el capítulo, con distintos proveedores de modelos y distintos orígenes para RAG puedes hacerlo siguiendo este link: https://github.com/aws-samples/aws-genai-llm-chatbot/tree/main
Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/
Pablo Núñez es arquitecto de soluciones de AWS con base en Madrid. Desde allí, trabaja con clientes de salud y educación ayudándoles diseñar y desplegar sus cargas de manera escalable, sostenible y según mejores prácticas.
Lleva inmerso en el mundo del cloud y el machine learning más de 5 años, y otros 15 de desarrollador backend. Su pasión por la bioingeniería lo ha llevado a ser además biólogo con especialización en fisiología.
Cuando no está frente al ordenador, reparte su tiempo entre la electrónica, sus bicicletas, su alérgico gato negro (Hawking), y discutiendo investigaciones médicas con su esposa.
Contacta con Pablo Nuñec en LinkedIn en https://www.linkedin.com/in/ppolcher