In statistica, un algoritmo di aspettazione-massimizzazione o algoritmo expectation-maximization (EM)[1][2] è un metodo iterativo per trovare stime (locali) di massima verosimiglianza (o le stime del massimo a posteriori) dei parametri di modelli statistici che dipendono da variabili latenti (non osservate). L'iterazione di EM alterna l'esecuzione di un passo detto expectation (E), che crea una funzione per il valore atteso della verosimiglianza logaritmica calcolata usando la stima dei parametri corrente, e un passo detto maximization (M), che calcola nuove stime dei parametri massimizzando la funzione di verosimiglianza logaritmica attesa trovata al passo E. Tali stime dei parametri possono poi essere usate per determinare la distribuzione delle variabili latenti al passo E dell'iterata successiva.

Descrizione modifica

Dato il modello statistico che genera un insieme   di dati osservati, un insieme   di dati latenti non osservati o dati mancanti, e un vettore di parametri incogniti   assieme a una funzione di verosimiglianza  , la stima di massima verosimiglianza (MLE) dei parametri sconosciuti viene determinata massimizzando la verosimiglianza marginale dei dati osservati

 

Tuttavia determinare questa quantità è spesso impossibile dato che   non è osservato e la sua distribuzione è sconosciuta prima di determinare  .

L'algoritmo EM cerca di trovare la stima della massima verosimiglianza marginale eseguendo iterativamente questi passi:

  • Expectation (E step): Definire   come il valore atteso della funzione di verosimiglianza logaritmica per  , rispetto alla distribuzione di probabilità condizionata corrente di   dati   e le stime correnti dei parametri  :
 
  • Maximization (M step): Trovare i parametri che massimizzino questa quantità:
 

Tipici modelli cui si applica EM designano con   la variabile latente che indica l'appartenenza a un gruppo in un insieme di gruppi:

I punti osservati   possono essere discreti o continui a seconda che assumano valori da un dominio finito (o infinito numerabile) o infinito non numerabile. Si può associare a ogni punto un vettore di osservazioni.

I valori mancanti (e quindi le variabili latenti  ) sono discreti, tratti da un numero prefissato di valori e con una variabile latente per ogni unità osservata.

I parametri sono continui e di due tipi: parametri associati a tutti i punti e parametri associati a uno specifico valore di una variabile latente (ossia associati a tutti i punti con quel valore per la corrispondente variabile).

Note modifica

  1. ^ A. P. Dempster, N. M. Laird e D. B. Rubin, Maximum Likelihood from Incomplete Data Via the EM Algorithm, in Journal of the Royal Statistical Society: Series B (Methodological), vol. 39, n. 1, 1977-09, pp. 1–22, DOI:10.1111/j.2517-6161.1977.tb01600.x. URL consultato il 20 marzo 2022.
  2. ^ Richard A. Redner e Homer F. Walker, Mixture Densities, Maximum Likelihood and the EM Algorithm, in SIAM Review, vol. 26, n. 2, 1984-04, pp. 195–239, DOI:10.1137/1026034. URL consultato il 21 marzo 2022.
  Portale Statistica: accedi alle voci di Wikipedia che trattano di statistica