L%26%238217%3Bintelligenza+artificiale+non+%C3%A8+immune+agli+attacchi%3A+come+difendersi+dal+data+poisoning
soswpit
/news/intelligenza-artificiale-non-immune-attacchi-hacker/amp/
News

L’intelligenza artificiale non è immune agli attacchi: come difendersi dal data poisoning

Published by
Claudia Manildo

Neanche l’intelligenza artificiale è immune agli attacchi hacker e, come spesso accade, a rischiare in primis sono gli utenti

Ora che le AI sono disponibili anche sul web, pronte ad aiutare tutti con i nuovi servizi, è importante anche capire come tutelare una mole così vasta di dati per evitare di incappare in problemi di privacy. L’enorme quantità di dati generati dall’intelligenza artificiale ha infatti attirato le attenzioni degli hacker mettendo in atto varie e nuove tipologie di attacco. Tutto ciò mette a rischio enormi banche di dati elaborate dall’intelligenza stessa, quantità difficili anche solo da immaginare per la mente umana.

Intelligenza-Artificiale, come tutelarla dagli attacchi – Sos-wp.it

Gli hacker provano a mettere le mani su questo enorme patrimonio informativo ed è proprio questa la nuova sfida per i cyber security analyst: il data poisoning. Il data poisoning è una forma d’attacco attraverso la quale si corrompe il processo durante il quale viene creato il sistema di AI in modo che il sistema risultante non funzioni correttamente nel modo pensato.

In un certo senso possiamo semplificare all’estremo il concetto parlando di una contaminazione dei dati dopo che il modello è stato già distribuito alla produzione. In questo modo sarebbe difficile considerarli come malware perché una volta che un tale attacco ha successo, il modello è alterato. Questa modifica è permanente a meno che il modello non venga nuovamente addestrato con dati di addestramento puliti e affidabili.

Le intelligenze artificiali vanno salvaguardate dai Malware, come funziona il data poisoning

Gli algoritmi alla base dei moderni sistemi di intelligenza artificiale (AI) hanno bisogno di molti dati su cui addestrarsi. Molti di questi dati provengono dal web come spiegavamo in precedenza. Il data poisoning è il cosiddetto avvelenamento dei dati, iniettando dati errati farà apprendere qualcosa di sbagliato. Proprio per questo si tratta di un tipo di attacco dannoso per il machine learning poiché compromette l’affidabilità del modello stesso.

Gli attacchi di avvelenamento sono disponibili in due tipi: quelli mirati a ridurre l’accuratezza complessiva del modello, quelli mirati alla sua integrità. Per cercare di difendersi il più possibile da questi attacchi, la mossa principale è l’archiviazione dei dati in un ambiente sicuro, ciò non aiuterà al 100% ma sicuramente renderà le cose più difficili.

Più aumenteranno i dati, più aumenterà la possibilità di incappare nel data poisoning e più potrà essere difficile riscontrare l’errore tra i dati. Ci sarà bisogno di un’attenzione sempre maggiore e considerando il fatto che parliamo di novità tecnologiche dell’ultima decade di anni, bisognerà lavorare sodo sulle tecniche di difesa.

Claudia Manildo

Recent Posts

Come cancellare recensioni Google

Una delle attività che vengono incentivate più di tutte è quella di lasciare una recensione…

2 giorni ago

Come usare phpinfo per mostrare le informazioni sulla configurazione PHP del tuo sito web

Stai costruendo il tuo sito web con WordPress e vuoi che tutto funzioni alla perfezione.…

2 giorni ago

Errore 504 Gateway Timeout: cos’è e come si risolve

Se si naviga in rete, lo scopo è quello di raggiungere un sito web. Il…

3 giorni ago

La checklist definitiva per la sicurezza WordPress

La sicurezza online è sempre importante in qualità di utenti ma anche come gestore di…

4 giorni ago

Cosa fare se ti hanno hackerato il sito (senza panico)

Cosa fare se ti hanno hackerato il sito? La domanda da un milione di dollari.…

4 giorni ago

Errore err_cache_miss Google Chrome: quali sono le cause e come si risolve

Mentre ci si trova a navigare in rete, può capitare di imbattersi in un errore…

1 settimana ago