In questo talk analizziamo il caso delle reti neurali ricorrenti, adatte all’elaborazione di informazioni con struttura temporale vedendo come una inizializzazione casuale possa portare ad ottenere una performance allo stato dell'arte.
61 RSVP'd
Negli ultimi dieci anni l’interesse nello sviluppo delle tecnologie legate al Deep Learning e al Machine Learning è letteralmente esploso. Tradizionalmente, il successo di questi sistemi è legato alla sinergia tra algoritmi di apprendimento e architetture di reti neurali. In questo talk analizziamo il caso delle reti neurali ricorrenti, adatte all’elaborazione di informazioni con struttura temporale. Vedremo come - in molti casi - l’architettura neurale assuma un ruolo dominante rispetto agli algoritmi di apprendimento, e persino una inizializzazione casuale (ma sotto condizioni matematiche rigorose) della maggior parte delle connessioni neurali sia sufficiente ad ottenere performance allo stato dell’arte.
Speaker: Claudio Gallicchio
Claudio è ricercatore al Dipartimento di Informatica dell'Università diPisa. I suoi temi di ricerca spaziano dai Sistemi Dinamici, alle Reti Neurali, al Deep Learning.
Monday, November 23, 2020
5:00 PM – 7:00 PM (UTC)
5:00 PM | Reti Neural Ricorrenti Profonde e Randomizzate - Deep Reservoir Computing |
TD Group
Full Stack developer | DevOps eng @TdGroup
Aruba S.p.A
Software Architect
Meta
Kotlin GDE | Android Infra Engineer
GDG Organizer
University of Pisa
GDG Organizer
JetBrains GmbH
Organizer
University of Pisa
Helper
Helper
PHC Pisa
Helper
Freelancer
Helper
University of Pisa
Helper
Contact Us