L%26%238217%3Bintelligenza+artificiale+non+%C3%A8+immune+agli+attacchi%3A+come+difendersi+dal+data+poisoning
soswpit
/news/intelligenza-artificiale-non-immune-attacchi-hacker/amp/
News

L’intelligenza artificiale non è immune agli attacchi: come difendersi dal data poisoning

Published by
Claudia Manildo

Neanche l’intelligenza artificiale è immune agli attacchi hacker e, come spesso accade, a rischiare in primis sono gli utenti

Ora che le AI sono disponibili anche sul web, pronte ad aiutare tutti con i nuovi servizi, è importante anche capire come tutelare una mole così vasta di dati per evitare di incappare in problemi di privacy. L’enorme quantità di dati generati dall’intelligenza artificiale ha infatti attirato le attenzioni degli hacker mettendo in atto varie e nuove tipologie di attacco. Tutto ciò mette a rischio enormi banche di dati elaborate dall’intelligenza stessa, quantità difficili anche solo da immaginare per la mente umana.

Intelligenza-Artificiale, come tutelarla dagli attacchi – Sos-wp.it

Gli hacker provano a mettere le mani su questo enorme patrimonio informativo ed è proprio questa la nuova sfida per i cyber security analyst: il data poisoning. Il data poisoning è una forma d’attacco attraverso la quale si corrompe il processo durante il quale viene creato il sistema di AI in modo che il sistema risultante non funzioni correttamente nel modo pensato.

In un certo senso possiamo semplificare all’estremo il concetto parlando di una contaminazione dei dati dopo che il modello è stato già distribuito alla produzione. In questo modo sarebbe difficile considerarli come malware perché una volta che un tale attacco ha successo, il modello è alterato. Questa modifica è permanente a meno che il modello non venga nuovamente addestrato con dati di addestramento puliti e affidabili.

Le intelligenze artificiali vanno salvaguardate dai Malware, come funziona il data poisoning

Gli algoritmi alla base dei moderni sistemi di intelligenza artificiale (AI) hanno bisogno di molti dati su cui addestrarsi. Molti di questi dati provengono dal web come spiegavamo in precedenza. Il data poisoning è il cosiddetto avvelenamento dei dati, iniettando dati errati farà apprendere qualcosa di sbagliato. Proprio per questo si tratta di un tipo di attacco dannoso per il machine learning poiché compromette l’affidabilità del modello stesso.

Gli attacchi di avvelenamento sono disponibili in due tipi: quelli mirati a ridurre l’accuratezza complessiva del modello, quelli mirati alla sua integrità. Per cercare di difendersi il più possibile da questi attacchi, la mossa principale è l’archiviazione dei dati in un ambiente sicuro, ciò non aiuterà al 100% ma sicuramente renderà le cose più difficili.

Più aumenteranno i dati, più aumenterà la possibilità di incappare nel data poisoning e più potrà essere difficile riscontrare l’errore tra i dati. Ci sarà bisogno di un’attenzione sempre maggiore e considerando il fatto che parliamo di novità tecnologiche dell’ultima decade di anni, bisognerà lavorare sodo sulle tecniche di difesa.

Claudia Manildo

Recent Posts

Arriva Studio By WordPress, un nuovo modo di sviluppare in locale

Per progettare il tuo nuovo sito con WordPress non hai bisogno di cominciare con nulla…

9 ore ago

Report Digital 2024: Gli utenti social sono 5 miliardi

Avere un profilo social, e lo ripetiamo spesso, è importante così come è importante avere…

2 giorni ago

WordPress, Automattic e il lavoro da remoto

L'abbiamo sperimentato in quel periodo buio e brutto della pandemia ma il lavoro da remoto…

3 giorni ago

Le peggiori vulnerabilità WordPress del mese di aprile 2024

Anche per il mese di aprile sul portale WordFence sono state segnalate e indicate diverse…

4 giorni ago

E-commerce in difficoltà? Chiedi aiuto all’IA

Avere un e-commerce può essere una avventura e, come in ogni avventura, puoi incontrare blocchi…

6 giorni ago

Immagini AVIF in WordPress: è il caso di utilizzarle?

Con un post sul sito ufficiale, lo scorso 23 febbraio Adam Silverstein di WordPress ha…

1 settimana ago