Attaccare il machine learning con gli adversarial examples
Gli adversarial examples (esempi avversari) rappresentano una delle sfide più critiche per la sicurezza dei sistemi di machine learning. Si tratta di input appositamente progettati da un utente malint