Boosting

Tecnica di machine learning

Il boosting è una tecnica di machine learning che rientra nella categoria dell'Apprendimento ensemble. Nel boosting più modelli vengono generati consecutivamente dando sempre più peso agli errori effettuati nei modelli precedenti. In questo modo si creano modelli via via più "attenti" agli aspetti che hanno causato inesattezze nei modelli precedenti, ottenendo infine un modello aggregato avente migliore accuratezza di ciascun modello che lo costituisce[1].

In algoritmi come Adaboost[2], l'output del meta-classificatore è dato dalla somma pesata delle predizioni dei singoli modelli. Ogni qual volta un modello viene addestrato, ci sarà una fase di ripesaggio delle istanze. L'algoritmo di boosting tenderà a dare un peso maggiore alle istanze misclassificate, nella speranza che il successivo modello sia più esperto su quest'ultime.

In generale si ha che l'errore di predizione in un problema di apprendimento supervisionato è dato da:

Il boosting mira principalmente a ridurre il bias. Altre tecniche di ensemble learning, come il bagging, mirano invece a ridurre la varianza.

Categorizzazione degli oggetti modifica

  • Problema della categorizzazione dell'oggetto
  • Categorizzazione binaria
  • Categorizzazione multiclasse

Algoritmi di Boosting convessi e non convessi modifica

Note modifica

  1. ^ De Mauro, Andrea., Big data analytics : guida per iniziare a classificare e interpretare dati con il machine learning, Apogeo, 2019, ISBN 9788850334780, OCLC 1065010076. URL consultato il 10 novembre 2019.
  2. ^ (EN) Trevor Hastie, Saharon Rosset e Ji Zhu, Multi-class AdaBoost, in Statistics and Its Interface, vol. 2, n. 3, 2009, pp. 349–360, DOI:10.4310/SII.2009.v2.n3.a8. URL consultato il 10 novembre 2019.

Voci correlate modifica

Collegamenti esterni modifica

Controllo di autoritàLCCN (ENsh2011005111 · J9U (ENHE987007572846405171