Neanche l’intelligenza artificiale è immune agli attacchi hacker e, come spesso accade, a rischiare in primis sono gli utenti
Ora che le AI sono disponibili anche sul web, pronte ad aiutare tutti con i nuovi servizi, è importante anche capire come tutelare una mole così vasta di dati per evitare di incappare in problemi di privacy. L’enorme quantità di dati generati dall’intelligenza artificiale ha infatti attirato le attenzioni degli hacker mettendo in atto varie e nuove tipologie di attacco. Tutto ciò mette a rischio enormi banche di dati elaborate dall’intelligenza stessa, quantità difficili anche solo da immaginare per la mente umana.
Gli hacker provano a mettere le mani su questo enorme patrimonio informativo ed è proprio questa la nuova sfida per i cyber security analyst: il data poisoning. Il data poisoning è una forma d’attacco attraverso la quale si corrompe il processo durante il quale viene creato il sistema di AI in modo che il sistema risultante non funzioni correttamente nel modo pensato.
In un certo senso possiamo semplificare all’estremo il concetto parlando di una contaminazione dei dati dopo che il modello è stato già distribuito alla produzione. In questo modo sarebbe difficile considerarli come malware perché una volta che un tale attacco ha successo, il modello è alterato. Questa modifica è permanente a meno che il modello non venga nuovamente addestrato con dati di addestramento puliti e affidabili.
Le intelligenze artificiali vanno salvaguardate dai Malware, come funziona il data poisoning
Gli algoritmi alla base dei moderni sistemi di intelligenza artificiale (AI) hanno bisogno di molti dati su cui addestrarsi. Molti di questi dati provengono dal web come spiegavamo in precedenza. Il data poisoning è il cosiddetto avvelenamento dei dati, iniettando dati errati farà apprendere qualcosa di sbagliato. Proprio per questo si tratta di un tipo di attacco dannoso per il machine learning poiché compromette l’affidabilità del modello stesso.
Gli attacchi di avvelenamento sono disponibili in due tipi: quelli mirati a ridurre l’accuratezza complessiva del modello, quelli mirati alla sua integrità. Per cercare di difendersi il più possibile da questi attacchi, la mossa principale è l’archiviazione dei dati in un ambiente sicuro, ciò non aiuterà al 100% ma sicuramente renderà le cose più difficili.
Più aumenteranno i dati, più aumenterà la possibilità di incappare nel data poisoning e più potrà essere difficile riscontrare l’errore tra i dati. Ci sarà bisogno di un’attenzione sempre maggiore e considerando il fatto che parliamo di novità tecnologiche dell’ultima decade di anni, bisognerà lavorare sodo sulle tecniche di difesa.