Aujourd’hui, les modèles de langage de grande taille (LLM) posent un défi majeur. La question qui se pose est comment of...
30 RSVP'd
Aujourd’hui, les modèles de langage de grande taille (LLM) posent un défi majeur. La question qui se pose est comment offrir leur puissance sans exploser les coûts et les ressources ? À ce temps là maîtriser des technologies récentes comme JAX, Flax et XLA permet d’explorer de nouvelles approches pour alléger ces modèles tout en conservant leur performance. Ce qui nous insinue savoir c'est quoi quantization, pruning ou distillation enfin de combiner ces connaissances pour nous aider à transformer un LLM massif en un modèle plus compact, voire en Small Language Model (SLM), plus adapté à des usages concrets. Ces compétences ouvrent la voie à un déploiement plus rapide, moins cher et plus durable des IA génératives, que tout le monde pourra utiliser.
GDG on Campus UCB
AI/ML Lead
DrcMind
Web developer
GDG Kivu
Web Developer
DrcMind
Software developer
GDG Kivu
Web Dev & Organizer
DrcMind
GDG Organizer
IT Support
GDG on Campus UCB
google developper
DrcMind
CEO
Étudiante
GDG on Campus UCB member
GDSC
Isp
ISP BUKAVU
Backend developer
Mobile team
GDG on Campus UCB
Core Team
Web Developer
Flutter
Flutter Lead
AI & Cloud team
GDG on Campus UCB
Web team
Mobile team
AI & Cloud
Contact Us