E se uno dei tanti anfratti della vita online in cui le IA non dovrebbero entrare fosse la cybersicurezza?
Siamo portati a pensare che quando qualcosa ha a che fare con la tecnologia, l’idea di implementare in qualche modo l’intelligenza artificiale possa essere utile. Eppure, cominciano ad esserci diversi report e vari allarmi che ci dicono che invece, proprio per la cybersicurezza, l’intelligenza artificiale dovrebbe tenersi un po’ alla larga.
Almeno fino a quando non riusciremo a gestire meglio soprattutto l’aspetto fin troppo zelante degli LLM, che sono progettati per esaudire ogni nostra richiesta, anche quelle per le quali in teoria non c’è una risposta all’interno dei loro database. Perché proprio questo, lo dicono gli esperti, diventa un rischio per la sicurezza.
Perché la cybersicurezza potrebbe non essere in grado di sopravvivere all’intelligenza artificiale?
A lanciare l’allarme è stato su Mastodon Harry Sintonen, che ha sottolineato in un lungo post estremamente dettagliato, come ora si debba lavorare per scremare il vero dal falso nei programmi che si occupano di segnalare le vulnerabilità (come per esempio quelle che periodicamente riportiamo e che possono essere estremamente pericolose per i siti web e per la rete in generale).
Questo lavoro è necessario per scremare quelli che sono report autentici, frutto del lavoro di esperti di cybersicurezza che hanno effettivamente scoperto delle magagne, rispetto a tutto ciò che persone che millantano di essere esperte inviano facendosi aiutare dalle intelligenze artificiali.
Il problema con gli LLM è che sono dei compagni di lavoro fin troppo zelanti e questo li porta anche a mentire e a subire le cosiddette “allucinazioni”, ovvero a costruire cose, tramite le parole, che nei fatti non esistono.
Se è pericoloso affidarsi a un’AI per cose che non conosci, quanto diventa pericoloso se le aziende perdono tempo e si concentrano su vulnerabilità che non esistono?
Purtroppo, però, i programmi di caccia alle vulnerabilità, i cosiddetti bounty program, elargiscono premi che sono spesso anche molto sostanziosi e quindi fanno gola a chiunque. E dato che tanti si convincono che l’intelligenza artificiale abbia sempre ragione, aumentano le segnalazioni di vulnerabilità che sono poi finte ma che rischiano di trasformarsi in un problema reale.

E il problema potrebbe diventare ancora più complicato rispetto a quanto non sia già adesso. Sotto i messaggi che su Mastodon Sintonen lascia, raccontando quello che sta accadendo, c’è anche il commento di Benjamin Piouffle di Open Collective che sottolinea come la situazione sia la stessa per la piattaforma di cui fa parte, che si ritrova “invasa dalla immondizia dell’intelligenza artificiale“.
E il suo commento si conclude con una nota che è l’ennesima dimostrazione di come l’utilizzo sconsiderato e non filtrato delle intelligenze artificiali in ogni campo (cosa che serve solo ad arricchire le società che producono queste slot machine) rischia di distruggere il tessuto stesso di internet, se non della società nel suo complesso: “alla fine potremmo aver bisogno di passare a una piattaforma come HackerOne e consentire le segnalazioni solo ai ricercatori verificati … questo alla fine renderà più difficile per i ricercatori junior entrare nell’industria“.
Perché tutti quelli che adesso sono ritenuti gli esperti cacciatori di vulnerabilità hanno cominciato da qualche parte. Ma quelli che adesso sono i giovani ricercatori e che un domani potrebbero diventare i nuovi esperti, rischiano di non essere ascoltati e di non trovare un loro spazio proprio perché quelle piattaforme su cui potrebbero cominciare a muovere i primi passi si riempiono di schifezze sintetiche e i gestori sono costretti quindi a limitare gli accessi.
C’è però anche chi riesce a guardare alla questione della valanga di immondizia prodotta dall’intelligenza artificiale anche con una nota di positività. Un altro utente che risponde a questa stessa discussione infatti sottolinea che: “potremmo chiudere il cerchio e tornare a valutare gli esperti come modo per fidarsi della fonte delle informazioni. Penso che i professionisti di tutte le industrie debbano spingere su questo”.
E in effetti, visto il modo in cui l’intelligenza artificiale non progredisce in realtà e soprattutto visto che per progredire ha comunque bisogno di input umani e che tanti umani sono già stufi di foraggiare servizi che arricchiscono pochi, forse siamo già arrivati a quel punto del percorso nel quale ci rendiamo collettivamente conto che per quanto sia bello e affascinante il mondo che le intelligenze artificiali provano a produrre, in realtà è un mondo che vale poco perché non c’è una reale esperienza alle spalle.