Esta charla explorará cómo la técnica de Retrieval-Augmented Generation (RAG) está revolucionando el rendimiento de los Large Language Models (LLM), con un enfoque especial en las soluciones desarrolladas por Google.
155 asistentes
Los puntos clave de la charla incluirán:
Introducción a RAG: Explicación de cómo esta técnica combina la recuperación de información con la generación de texto para mejorar la precisión y relevancia de las respuestas de los LLM.
Ventajas de RAG: Discusión sobre cómo RAG ayuda a superar limitaciones comunes de los LLM, como la falta de conocimientos actualizados y la tendencia a "alucinar" información.
Como usar Gemini o Gemma como LLM base para soluciones de RAG usando frameworks gratuitos
Comparación con otros enfoques: Como una ventana de contexto de 2 millones de parametros puede cambiar el enfoque de RAG
Aplicaciones prácticas: Exploración de escenarios del mundo real donde RAG puede marcar una diferencia significativa, como en sistemas de búsqueda, asistentes virtuales y herramientas de investigación.
Demostración: Presentación en vivo de un modelo basado en RAG, mostrando su capacidad para proporcionar respuestas más precisas y contextualizadas.
Contáctenos