In questo talk analizziamo il caso delle reti neurali ricorrenti, adatte all’elaborazione di informazioni con struttura temporale vedendo come una inizializzazione casuale possa portare ad ottenere una performance allo stato dell'arte.
61 RSVP'd
Negli ultimi dieci anni l’interesse nello sviluppo delle tecnologie legate al Deep Learning e al Machine Learning è letteralmente esploso. Tradizionalmente, il successo di questi sistemi è legato alla sinergia tra algoritmi di apprendimento e architetture di reti neurali. In questo talk analizziamo il caso delle reti neurali ricorrenti, adatte all’elaborazione di informazioni con struttura temporale. Vedremo come - in molti casi - l’architettura neurale assuma un ruolo dominante rispetto agli algoritmi di apprendimento, e persino una inizializzazione casuale (ma sotto condizioni matematiche rigorose) della maggior parte delle connessioni neurali sia sufficiente ad ottenere performance allo stato dell’arte.
Speaker: Claudio Gallicchio
Claudio è ricercatore al Dipartimento di Informatica dell'Università diPisa. I suoi temi di ricerca spaziano dai Sistemi Dinamici, alle Reti Neurali, al Deep Learning.
Monday, November 23, 2020
5:00 PM – 7:00 PM (UTC)
5:00 PM | Reti Neural Ricorrenti Profonde e Randomizzate - Deep Reservoir Computing |
Contact Us