Didattica:
per il corso di Laurea Magistrale in Matematica
A.A. 2019-2020
Secondo semestre
• Obiettivi formativi
Al termine del corso, lo studente possiede nozioni
approfondite di meccanica statistica nei loro principali
aspetti matematici, è in grado di condurre autonomamente
l'approfondimento verso gli sviluppi più recenti delle
tematiche coinvolte e dei loro problemi più significativi.
• Descrizione
In questo anno accademico il corso porrà le basi concettuali
meccanico-statistiche utili ad per affrontare lo studio
rigoroso dei metodi di machine learning che si utilizzano
nell'intelligenza artificiale. Saranno introdotti quindi i
modelli interagenti quali, dopo i casi elementari, quelli di
Hopfield per la memoria associativa, di Sherrington e
Kirkpatrick come paradigma di sistema complesso e quelli a
multistrato disordinati in particolare quelli con matrice di
interazione iperbolica utilizzati nel deep learning. Il
corso ospiterà occasionalmente seminari di specialisti nel
campo dell machine learning, sia quelli che lo utilizzano
che faranno sessioni pratiche con elementi di
programmazione, sia quelli che ne studiano aspetti
teorico-concettuali. La maggior parte degli argomenti
trattati verrà anche illustrata con applet di simulazioni al
calcolatore.
• Programma
- Lezione Introduttiva- Spazi di Probabilità, Entropia e sue proprietà.
- Rappresentazione geometrica degli spazi di probabilità tramite simplessi
- Sistemi di particelle e modello di Ising. Modello di Ising in d=1 con condizioni libere e periodiche.
- Funzioni di variabili dicotomiche e decomposizione di Fourier. Cenni ai modelli di Ising in d>1
- Il limite termodinamico in dimensione finita e le disuguaglianze di correlazione. Modelli di campo medio. Modello di Curie-Weiss. Il limite termodinamico nei modelli di campo medio.
- Risoluzione del modello di Curie-Weiss con stime dall'alto e dal basso.
- Legge dei grandi numeri e teorema limite centrale per la magnetizzazione, modello con
interazione e modello senza.
- Problema inverso teorico: dalle osservabili termodinamiche ai parametri. Problema inverso empirico: dai dati sperimentali ai parametri. Metodo della massima verosimiglianza.
- Il modello di Sherrington e Kirkpatrick. La soluzione di Parisi. La dimostrazione per l'energia libera di Guerra-Talagrand. La dimostrazione di ultrametricità di Panchenko.
- Il modello di Hopfield per la memoria associativa. La rete del deep learning e la sua meccanica statistica con le condizioni al contorno coniche. Teorema sulla equivalenza tra learning and retrieval.
- Seminari specialistici.
• Valutazione
La verifica dell'apprendimento avviene mediante esame
orale, oppure (a richiesta dello dello studente) con
seminario di ricerca.
• Bibliografia
Daniel Stein and Chuck Newman, "Spin Glasses and Complexity
(Primers in Complex Systems)" Oxford University Press, 2013Pierluigi Contucci and Cristian Giardina, "Perspectives in Spin Glasses", Cambridge University Press, 2012