Question Answering e Sintesi Multimodale con Gemma e Ollama: PDF e Video in Locale con LLM
18 RSVP'd
Unitevi a noi per scoprire come integrare potenti modelli linguistici di grandi dimensioni (LLM) direttamente nelle vostre applicazioni web Angular, sfruttando la potenza di MediaPipe Inference API.
In questo talk, esploreremo i vantaggi dell'elaborazione AI lato client, dalla riduzione del carico sul server alla potenziale maggiore privacy. Vedremo come configurare e utilizzare l'API di MediaPipe in un progetto Angular, dimostrando come abilitare funzionalità di AI generativa avanzate direttamente nel browser dell'utente.
Volete scoprire come rendere le vostre applicazioni Angular più intelligenti e reattive, spostando l'elaborazione AI sui dispositivi dei client? Dovete solo prenotare il vostro e godervi il nostro talk.
Friday, June 13, 2025
4:30 PM – 5:00 PM (UTC)
OVERCASH S.R.L.
Developer
Over Spa
CTO
EIES Group
GDE Cloud • Google Cloud Architect • Google Cloud Authorized Trainer • Team Manager • GDG Community Lead 🚀
Contact Us