Discussione:Adversarial machine learning

Ultimo commento: 2 anni fa, lasciato da Ettmajor in merito all'argomento Observations and suggestions for improvements

Commenti degli altri partecipanti al seminario

modifica

Articolo super interessante, ben scritto e dettagliato! --Alessia Arrigoni (msg) 15:58, 18 giu 2021 (CEST)Rispondi

Nel caso specifico del clustering, lo scopo di un attacco adversarial è quello di massimizzare la distanza (definita tramite una qualche appropriata misura) fra i cluster che si otterrebbero partizionando un dataset D {\textstyle D} {\textstyle D} mediante un determinato algoritmo di clustering e quelli che invece verrebbero prodotti eseguendo lo stesso algoritmo su un dataset D ′ {\displaystyle D'} {\displaystyle D'}, ottenuto dall'unione fra D {\displaystyle D} {\displaystyle D} e A {\textstyle A} {\textstyle A}, dove A {\displaystyle A} A è l'insieme degli input malevoli inseriti dall'attaccante. Credo che il periodo questo periodo sia un po' complesso,anche se non sono troppo sicuro di come potrebbe rivisto, per il resto mi sembra davvero un ottimo articolo, su una tematica tanto interessante quanto delicata --Scraich (msg) 16:11, 18 giu 2021 (CEST)Rispondi

Articolo molto interessante! --Margalb (msg) 16:59, 18 giu 2021 (CEST)Rispondi

Observations and suggestions for improvements

modifica

The following observations and suggestions for improvements were collected, following expert review of the article within the Science, Tecnology, Society and Wikipedia course at the Politecnico di Milano, in June 2021.

La trattazione è abbastanza esaustiva. Sarebbe da precisare meglio cosa si intende per norma di δx e che da questa si hanno luogo diversi attacchi. Si sarebbe potuto anche citare gli attacchi basati sul surrogate model

Ettmajor (msg) 12:49, 11 lug 2021 (CEST)Rispondi

Ritorna alla pagina "Adversarial machine learning".