Data Inizio Fine Ore Titolo Descrizione
16/09/2024 14:30 17:30 3,00 Introduzione e ripasso teoria della stima Introduzione all'analisi di grandi moli di dati: contesto, sfide tecnologiche, strumenti. Obiettivi ed architettura dell'insegnamento.  RIPASSO RAPIDO di TEORIA DELLA STIMA: Densità di probabilità associata a uno stimatore: errore di stima, polarizzazione, errore quadratico medio (MSE), e varianza dello stimatore in senso classico.
Stimatori non polarizzati a varianza minima (MVUE). Limite inferiore alla varianza di qualunque stimatore: Teorema di CRAMER-RAO. Teorema di fattorizzazione di Fisher, raggiungibilità e calcolo del MVUE.
Stimatori efficienti e conservazione dell'efficienza (CRLB) per trasformazione affini di parametri. Teorema di fattorizzazione di Neymann-Fisher per statistiche sufficienti.
Maximum Likelihood Estimator (MLE).
BEST LINEAR UNBIASED ESTIMATOR (BLUE) per modelli di osservazione lineare: coincide con MVUE e MLE per modelli Gaussiani.
CRAMER-RAO LOWER BOUND a vettori di parametri: Teorema di fattorizzazione, matrice di informazione di Fisher e matrice di covarianza dell'errore di stima.
BLUE per modello lineare di osservazione vettoriale di parametri incogniti vettoriali: matrice di covarianza dell'errore di stima. Caso particolare per rumore Gaussiano, scorrelato, a varianza costante: BLUE coicidente con MLE, MVUE e ""stimatore"" Least Square (LS). Cenni al concetto di LSE e alla matrice di proiezione."
Stimatori LINEARI Bayesiani (L-MMSE): caso particolare per modelli di osservazione lineari vettoriali e Gaussiani. Coincidenza di L-MMSE con MMSE Bayesiano per statistiche Gaussiane.
18/09/2024 08:30 11:30 3,00 Teoria della stima e Machine Learning.
Ripasso Test di Ipotesi.
Introduzione alla ottimizzazione convessa. 
Inferenza statistica e Machine learning: conoscenza statistica priori contro apprendimento dai dati (delle statistiche
ESEMPIO-1: Linear regression analysis e relazione con stimatore Linear-MMSE bayesiano.
ESEMPIO2: K-nearest neighbour e relazione con stimatore ottimo MMSE (non lineare) bayesiano.
RIPASSO DI TEST DI IPOTESI.
APPROCCIO CLASSICO e ipotesi binarie: errori di tipo I (falaso allarme) e tipo II (mancata rivelazione) e loro probabilità Pfa e Pmd, e regioni di decisione. Criterio di Neymann-Pearson e rapporto di verosimiglianza: proprietà della ROC per NP-test.
Accenni al GLRT (generalized likelyhood ratio test) come estensione a verifica di ipotesi composte.
APPROCCIO BAYESIANO: probabilità a priori e a posteriori associata a ciascuna ipotesi.
Rischio di Bayes e rapporto di verosimiglianza come test ottimo per la sua minimizzazione per ipotesi semplici. Identificazione della soglia del test per l'approccio Bayesiano, ROC, e relazioni con il Neymann-Pearson Test.  Esempio: verifica di ipotesi binaria con osservazioni (multidimensionali Gaussiane) a stessa varianza e diverso valore medio nelle due ipotesi. Decisore ottimo separa i dati tramite un iperpiano analogamente ad algoritmi di PCA, piuttosto che di Linear Discriminant Analysis o di Logistic Regression nel ML. Relazioni tra i due approcci e risultati dell'approccio statistico come limite massimo di prestazioni di un metodo di machine learning.
Ottimizazione vincolata: insieme delle soluzioni ammissibili. Insiemi affini, insiemi convessi, insiemi conici, insiemi conici e convessi. Esempi: iperpiani, semi-spazi, sfere, poliedri, insieme delle matrici simmetriche e semi-definite positive. Metodi di dimostrazione della convessità di insiemi: a) verifica della definizione b) intersezione di insiemi convessi, c) mappaggio tramite funzioni affini 
23/09/2024 10:30 13:30 3,00 Introduzione alla ottimizzazione convessa Ulteriori metodi  di dimostrazione della convessità di insiemi: d) funzione prospettiva e) funzioni lineari fratte.
Funzioni convesse: definizione ed esempi. Dimostrazione della convessità di funzioni: a) definizione, b) restrizione a una linea (es. log(det(X)) è concavo)  c) Condizione del primo ordine  d) Condizione del secondo ordine (Hessiano): esempio funzioni quadratiche in R^n.
Esempi: funzione quadratica su funzione lineare, media geometrica, log-sum-exp.
Minimizzazione su insiemi convessi. Insiemi di sotto-livello di una funzione.
Operazioni che preservano la convessità. Regole di composizione con funzioni scalari. Funzioni Log-Convesse e proprietà. Prospettiva di una Funzione convessa. Esempio: Kullback-Leibler distance is convex. Epigrafo di una funzione e proprietà.
Definizione del problema standard di ottimizzazione convessa vincolato. Minimi locali e globali per problemi non convessi. Soluzioni ammissibili per problemi convessi, gradiente e MINIMUM PRINCIPLE. 
25/09/2024 10:30 13:30 3,00 Ottimizzazione Convessa Problemi convessi equivalenti: a) variabili "slack", b) metodo dell'epigrafo, c) introduzione di vincoli affini di uguaglianza.
Programmi Lineari: soluzione sul vertice di un poliedro, non calcolabile in forma chiusa, ricavabile con metodi di ricerca veloce del vertice ottimo ( metodo del simplesso).
Esempi di problemi convessi: problemi quadratici con vincoli quadratici, programmi quadratici semidefiniti positivi, minimizzazione dell'autovalore massimo di matrici affini nelle variabili e forma epigrafica. Funzione Lagrangiana, funzione duale, problema di ottimizzazione duale (concavo), condizioni di dualità forte e condizione di Slater. Condizioni necessarie KKT di dualità: generalmente anche sufficienti per problemi convessi.
30/09/2024 10:30 13:30 3,00 Esempi di Problemi di Ottimizzazione Esempi di ottimizzazione e formulazione duale: forme quadratiche con vincoli lineari, waterfilling, programmi lineari in forma duale, Least Square, (Linear) Support Vector Machine: formulazione di Rosemblatt, formulazione di Vaipnik, problema duale e soluzioni.
Introduzione agli algoritmi di ottimizzazione. Problemi di ottimizzazione non vincolata e condizione di esistenza del minimo. Algoritmi a discesa: gradient descent, algoritmo di Newton, algoritmi quasi-Newton. Cenni alle condizioni di convergenza e alla velocità di convergenza. 
02/10/2024 10:30 13:30 3,00 Algoritmi di ottimizzazione I Algoritmi iterativi per problemi di ottimizazzione vincolata. Condizione di Liptschitz: gradient projection e condizine di convergenza.. Algoritmi per problemi regolarizzati non differenziabili: proximal-operator. Casi particolari di regolarizzazione: funzione indicatore e proximal gradient; norma L1 e Soft-Threshold operator: Iterative Soft Thresholding Algorithm (ISTA). Caso particolare: LASSO. Algoritmi iterativi "Primal-Dual". Esempio: linear equality constrained problems: DUAL ASCENT algorithm. Augmented Lagrangian and Method of Multipliers.
07/10/2024 10:30 13:30 0,00 Annullata Lezione Annullata per impegni scientifici del docente
09/10/2024 10:30 12:30 2,00 Esercitazioni di codifica e simulazione con Matlab / Python di algoritmi di Ottimizzazione Implementazione di LASSO con Matlab / Python: Iterative Soft Thresholding Algorithm (ISTA), Alternating Direction Method of Multipliers (ADMM). Analisi di convergenza, sensibilità al parametro di regolarizzazione, recupero della sparsità. Utilizzo di dataset sintetici e dataset reali. Problema del Waterfilling con soluzione algoritmica, basata su CVX, e sfruttando la funzione già implementata in Matlab. 
14/10/2024 10:30 12:30 3,00 Algoritmi di Ottimizzazione e Ottimizazione distribuita-I Algoritmo di consenso medio (AVERAGE CONSENSUS) su grafi indiretti e connessi: concetto di Total Variation e sua minimizzazione con gradient descent. Condizioni di convergenza. Generalizzazione al calcolo distribuito della media pesata osservata da più agenti connessi. Generalizzazione alla stima di parametri da osservazione di dati indipendenti e distribuiti secondo modelli esponenziali: statistica sufficiente come somma delle statistiche sufficienti di ciascuna osservazione. Cenni al consenso medio su grafi diretti.
Disaccoppiamento di problemi di ottimizzazione regolarizzati: L'algoritmo Alternating Direction Method of Multipliers (ADMM) e la sua versione scalata. Soluzione di problemi regolarizzati non vincolati attraverso ADMM: esempio- LASSO by ADMM.
Cenni a Learning Federato (con centro di fusione) e Distribuito in reti di comunicazione.
Federated learning come un problema di ottimizzazione distribuito (con Fusion center). Funzioni costo tipiche per learning supervisionato a ciascun agente: MSE e Cross-Entropia. Soluzione generale per problemi non convessi: Federated Gradient Descent e riformulazione come Federated Averaging. Cenni all'accelerazione di Nesterov.
Federated ADMM: ottimizzazione non-vincolata tramite CONSENSO per funzioni obiettivo (e di learning) che sono somma di funzioni convesse: variabili locali, variabili globali, Lagrangiano aumentato e soluzione tramite ADMM scalato in parallelo su ciascun agente, consenso tramite FUSION CENTER e local UPSCENT sulla variabili duali. Versione semplificata. Estensione di ottimizzazione al Consenso a problemi di ottimizzazione convessa regolarizzata (LASSO, RIDGE REGRESSION, etc.). Soluzione tramite Scaled ADMM. Esempio: Soluzione di LASSO distribuita attraverso splitting dei dati osservati su N agenti in paralleo.
Implementazione di ottimizzazione al CONSENSO con ADMM, con fusione delle ottimizzazioni tramite ullteriore algoritmo iterativo di diffusione (AVERAGE CONSENSUS) di tipo scalare.
16/10/2024 10:30 13:30 3,00 Ottimizzazione distribuita-II Formulazione alternativa del problema di ottimizzazione, incorporando l'algoritmo di AVERAGE CONSENSUS all'interno del problema originale attraverso la minimizzazione congiunta della TOTAL VARIATION: considerazioni sulla velocità di convergenza globale. Risultati di convergenza con matrici di mixing delle variabili locali "right-stochastic".
Esempio  Soluzione distribuita di LASSO dividendo il problema rispetto ai DATI (CONSENSUS OPTIMIZATION) oppure rispetto alle VARIABILI di ottiimizzazione (SHARING OPTIMIZATION): soluzione dello step-2 di ADMM tramite Lagrangiano e dualità.
Stima Maximum Likelihood di un vettore di parametri da agenti multipli con modello di osservazione (regressione) lineare in condizioni di rumore additivo Gaussiano e incorrelato tra agenti.  Analisi della soluzione centralizzata ed implementazione distribuita (con centro di fusione)  attraverso ADMM: implementazione, confronto di prestazioni tramite Matlab. 
21/10/2024 10:30 13:30 3,00 Machine Learning Distribuito: Federated learning and distribited model fitting Consensus and Sharing Optimization in problemi di machine learning regolarizzati: Distributed (regularized) Model Fitting). Funzioni di ottimizzazione modellabili come L(Ax-b). Funzioni di ottimizzazione additive: Consensun optimization. Funzioni di regolarizzazione separabili: Sharing Optimization. Esempio: Linear regression Analysis by ML estimation (uncostrained optimization). Bayesian MAP formulation of Linear regression analysis: regularized optimization induced by the prior. Example: Laplacian & LASSO, Gaussian and Ridge Regression. Esempi di classificazione: Linear SVM and splitting by Features and Examples. Funzioni di loss additive e stimatori ML e Bayesiani MAP con pdf log-concave (LS, LASSO, Ridge Regression). Fomulazione del problema per LOGISTIC REGRESSION (da fare come possibilie tesina, splitting rispetto a Examples  (dati) e splitting rispetto a Features (variabili).
Esempio di applicazione: Distributed Target Localization. Modello teorico, soluzione centralizzata e distribuita con ADMM. Implementazione e simulazione in Matlab
23/10/2024 10:30 12:30 2,00 Esercitazioni di codifica e simulazione con Matlab / Python Codifica, simulazione, e analisi dei risultati in aula con PC degli studenti di algoritmi di ottimizzazione distribuita: implementazione su un data-set reale (MPG-DATASET) di algoritmo LASSO con dati separati su più agenti/processori, sia in presenza di un centro di fusione, sia con algoritmo al consenso quando gli agenti comunicano tra loro su una rete connessa bidirezionale (grafo indiretto) , sia attraverso formulazione tramite Total Variation. Codifica e simulazione di model fitting per Support Vector Machine regolarizzato su Breast Cancer dataset.
28/10/2024 10:30 13:30 0,00 Annullata Lezione Annullata per impegni scientifici del docente
30/10/2024 10:30 13:30 0,00 Annullata Lezione Annullata per impegni scientifici del docente
04/11/2024 14:30 17:30 3,00 Compressed sensing - I: teoria Introduzione al compressed sensing e alla rappresentazione sparsa dei segnali. Condizioni di ricostruibilità per segnali sparsi:  spark della matrice complessiva, coerenza mutua della matrice di sparsità con la matrice di campionamento, restricted isometry property. Ricostruzione come un problema di ottimizzazione con norma L0, soluzione rilassata con norma L1 e algoritmo di Basis Pursuit (già studiato con ADMM). Ricostruzione in presenza di rumore: formulazione con minimizzazione della norma dell'errore (LASSO based) e algoritmi di Basis Pursuit con vincolo quadratico. Algoritmi di tipo GREEDY: Orthogonal Matching Pursuit e Iterative Hard Thresholding.  
  10:30 13:30 3,00 Stima Maximum Likelihood con implementazione centralizzata e Distribuita: implementazione con Matlab  Stima Maximum Likelihood di un vettore di parametri da agenti multipli con modello di osservazione (regressione) lineare in condizioni di rumore additivo Gaussiano e incorrelato tra agenti.  Analisi della soluzione centralizzata ed implementazione distribuita (con centro di fusione)  attraverso ADMM: implementazione, confronto di prestazioni, e sensibilità ai parametri dell'algoritmo e del modello tramite Matlab. 
06/11/2024 10:30 13:30 0,00 Lezione Annullata 
11/11/2024 10:30 13:30 3,00 Compressed sensing - II e Matrix completion: algoritmi Formulazione matematica dell'utilizzo di compressed sampling per denoising di immagini: rappresentazione sparsa tramite DFT per colonne (o righe) e tramite 2D-DFT.
Algoritmi di completamento di Matrici a basso rango (Low-Rank Matrix Completion) : fondamenti teorici e formulazione esatta del problema. Formulazione rilassata con la norma-nucleare e similitudini con compressed sampling e  norma "l1". Algoritmi basati su SVD ed algoritmi iterativi con thesholding. Implementazione in Matlab con data-set sintetici di matrici sottocampionate e relativa analisi del NMSE di ricostruzione della matrice al variare del numero dei suoi elementi osservati.
Formulazione di Matrix completion sftuttando basso rango + sparsità e cenni alle potenziali applicazioni di  Network Flow Tomography.
12/11/2024 14:30 17:30 2,00 Esercitazioni di codifica e simulazione con Matlab Compressed sensing per la la ricostruzione di immmagini sottocampionate sfruttando  la 2D-DCT come dizionario e l'algoritmo di Basis Pursuit: Implementato sia con  ADMM  che con Iterative Shrinking & Thresholding.
Utilizzo di Low-Rank + Sparse - Matrix Completion su dati di flusso di rete Internet e per il denoising di immagini corrotte da rumore additivo di tipo "sale e pepe".  
13/11/2024 10:30 13:30 3,00 Data Reduction Techniques: linear features extraction Principal componet Analysis: definizione, interpretazione statistica e deterministica, significato geometrico. Caso particolare di variabili aletaorie Gaussiane: entropia della proiezione tramite PCA e informazione mutua con i dati originali in presenza di rumore additivo. La PCA come tecnica unsupervised in problemi di classificazione.
Canonical Correaltion Ananalysis per problemi di classificazione supervisionata: definizione e derivazone matematica degli autovettori della matrice che definiscono le due basi di proiezione per la CCA.
Il criterio dell'Information bottleneck per l'estrazione di feature compresse in problemi di learning: definizione, caso generale e caso di statistiche Gaussiane. Osservazion su mappaggio statistico e considerazioni sul termine probabilistico di rumore nella soluzione dell'IB. Cenni all'utilizzo in sistemi di Edge machine Learning.
18/11/2024 10:30 13:30 3,00 Grafi, Cenni a Teoria Algebrica dei Grafi e Introduzione ai segnali definiti su grafi Esempi e motivazioni; Teoria algebrica dei grafi. Caratteristiche dei grafi: matrice delle adiacenze, Laplaciano, connettività di un grafo, etc. Segnali definiti su un grafo, Total Variation, Minimizzazione del cut size, algoritmo rilassato e relazioni con total variation. Autovettori del Laplaciano di un grafo e proprietà di clusterizzazione. Autovettori del Laplaciano come un segnale definito su un grafo (indiretto). Total Variation Clustering e concetto di oscillazione su un grafo. Autovettori del Laplaciano come base orto-normale per qualunque altro segnale. Cenni alla Graph-Fourier Transform (GFT)
19/11/2024 14:30 16:30 2,00 Esercitazioni di codifica e simulazione con Matlab / Python  Codifica e simulazione di algoritmi di estrazione di features da data-set di immagini per problemi di classificazione. Confronto tra PCA (non supervisionato), Information-Bottleneck e NN-encoder. Cenni ad  applicazioni per goal-oriented communications.
20/11/2024 10:30 13:30 3,00 Segnali su grafo e Graph Fourier Transform.
Calcolo distribuito di autovalori e autovettori del Laplaciano di un grafo.
Filtraggio su un grafo.
Definizione di Graph Fourier Transform (GFT) e spettro di un segnale su un grafo. Similitudine con DFT di sequenze periodiche su grafi circolanti (diretti: caso particolare !!). Possibile estensioni a grafi diretti, matrici delle adiacenze come operatore di shift, problemi interpretativi.
Filtraggio di segnali su grafi. Filtraggio distribuito su grafi e filtri come espansione polinomiale di matrici delle adiacenze o del Laplaciano. Equazione di diffusione di un segnale su un grafo (osservazione sulla sua natura di filtro passa-basso).
25/11/2024 10:30 13:30 3,00 Campionamento e ricostruzione su Grafo Campionamento e ricostruzione di dati definiti sui nodi di un grafo. Teorema del campionamento su grafi. Ricostruzione in assenza di rumore e formulazioni alternative. Ricostruzioni iterative: approssimazione della matrice inversa  o utilizzo degli autovettori del grafo. Cenni alla ricostruzione con gli autovettori della matrice che controlla la concentazione energetica in frequenza (B) e sui nodi (D): autovettori di BDB.
Analisi simulativa e intuitiva delle prestazioni di sparse-sampling in presenza di rumore per  la ricostruzione di segnali (quasi) sparsi nel dominio della Graph-Fourier-Transform. MSE di ricostruzione in funzione di Banda (approssimata) e numero di campioni prelevati.
27/11/2024 10:30 13:30 3,00 Inferenza da campionamento sparso e applicazione alla  ricostruzione di segnali su grafi. 


(POSSIBILE ALTRO ARGOMENTO: Da segnali sui nodi a segnali sugli archi: cenni a complessi simpliciali e cell-complexes
Problemi di stima e decisione attraverso opportuna selezione dei dati disponibili: fondamenti teorici e algoritmi per modelli di osservazione (regressione) lineare basati su MMSE.
Effetto del rumore e criteri di ricostruzione da sparse- sampling e Empirical-Design (E-Optimality, D-Optimality, A-optimality).
Cenni alle estensione a modelli di osservazione non lineari tramite minimizzazione del Cramer-Rao lower-bound.
Codice Matlab e risultati di simulazione di campionamento (con soluzione sparsa) di un segnale rumoroso definito su un grafo di sensori, con quantizzazione e trasmissione dei dati a un fusion center (su canali a rate limitata), il quale  ricostruisce il segnale su tutti i nodi  ottimizzando le risorse (bit e potenza trasmissiva) a ciascun sensore applicando BLUE per interpolare il segnale (Articolo IEEE ICASSP 2018)
02/12/2024 10:30 13:30 3,00 Calcolo distribuito di autovalori e autovettori del Laplaciano di un grafo Rayleight-Ritz Theorem, Leading eigenvector (eigenvector centrality) e Power Iteration Method. Normalization problems and possible solutions. Iterative distributed computation of leading eigenvectors. Alternative implementation to compute lamba_2(L) by the Laplacian diffusion matrix W = I - eL.  
04/12/2024 10:30 13:30 3,00 Cenni a ottimizzazione stocastica. Algoritmi LMS e RLS


POSSIBILE ANCHE UN NUOVO ARGOMENTO
Stimatore L-MMSE ed implementazione tramite metodo del gradiente a discesa. Cenni ai principi di ottimizzazione stocastica ed applicazione a L-MMSE con step-size variabile.  Step-size fisso ed algoritmo Least Mean Square (LMS): condizioni e velocità di convergenza.
Metodo iterativo di Newton per soluzione di L-MMSE: non realizzabilità. Recursive Least Square (RLS): stima iterativa (invertibile) con forgetting factor della matrice di correlazione ed ottimizzazione stocastica del passo di aggionamento. Riduzione della complessità con aggiornamento della matrice di precisione con identità di Woodburry e ruolo del guadagno (di Kalman).
Condizioni e velocità di convergenza al variare dello step-size e del forgetting factor. Considerazioni sul parametro di regolarizzazione, sul MSE e la convergenze in media ma non in media quadratica. Criteri di confronto di algoritmi adattativi a parità di veocità di convergenza o MSE residuo in convergenza. Formulazione di RLS come soluzione di un problema di fitting Weighted-LS regolarizzato con ridge-regression.
 Confronto di RLS con LMS: influenza del forgetting factor sulla velocità di convergenza attraverso studio approssimato della equazione di aggiornamento in regime di convergenza.
10/12/2024 14:30 17:30 3,00 Online Gradient-Based Optimization: soluzioni distribuite. ESEMPIO: Campionamento e ricostruzione on-line di segnali sui nodi di un grafo attraverso LMS: analisi di prestazioni, selezione dei nodi, risultati di simulazione (articolo IEEE). 
11/12/2024 10:30 13:30 3,00 Graph Learning Algoritmi di apprendimento basati su ipotesi statistiche dei dati osservati ai nodi di grafi indiretti.
Markov Random Fields e algoritmo di Graphical LASSO. Algoritmo di Kalofolias.
Algoritmi basati su Total Variation.
Totale ore 71,00