L’utilizzo delle IA si sta diffondendo ma uno studio approfondito su diversi siti di notizie ha portato ad una scoperta preoccupante.
I modelli linguistici, e quello più conosciuto al momento è ChatGPT prodotto da OpenAI, stanno diventando un compagno sempre più presente nella vita di tutti i giorni di moltissimi professionisti ma anche di persone comuni. Tra le paure di molte fasce di lavoratori ci sono per esempio quelle che si stanno moltiplicando tra quanti si muovono nell’informazione.
In linea puramente teorica, infatti, con l’utilizzo delle intelligenze artificiali che sono in grado di produrre frasi di senso compiuto si possono compilare interi siti web con notizie create a partire da un prompt oppure fornendo alle intelligenze artificiali una serie di link da cui prendere le informazioni. Come però sottolineato anche nella pagina iniziale se provate a giocare con ChatGPT, l’intelligenza artificiale in questione possiede una serie di limiti.
Uno dei limiti viene dal fatto che il materiale di addestramento e quindi le conoscenze di questa IA si fermano a una certa data nel passato, un problema che la stessa intelligenza artificiale dice che può in parte essere risolto se vengono forniti link o brandelli di testo, l’altro limite è quello che, trattandosi di un modello linguistico, alcune dichiarazioni che potrebbero essere prodotte nella rielaborazione potrebbero o meno essere veritiere. Ma questo non sembra aver fermato almeno una cinquantina di siti di notizie in cui un gruppo di ricercatori ha rintracciato contenuti prodotti dalla IA che si sono trasformati in notizie senza un controllo da parte di un editor umano.
Perché le notizie scritte dalla IA sono pericolose
Uno dei problemi che si stanno diffondendo maggiormente soprattutto negli ultimi anni, a ridosso della pandemia in particolare, è quello legato alle fake news. A quelle che in italiano chiamiamo comunemente bufale. Contenuti e notizie non confermate e che anzi hanno spesso lo scopo di gettare nel panico chi le legge. Altre volte i contenuti servono solo a creare traffico sui siti web ma non c’è una reale necessità di occupare quello spazio virtuale.
Esistono poi alcuni casi in cui le notizie false che vengono diffuse in rete hanno addirittura conseguenze deleterie sulla salute umana. Con la necessità di pompare contenuti, a quanto pare si stanno ora moltiplicando i siti di notizie con pezzi scritti direttamente dalla IA e che ricadono per mancanza di controllo umano nella categoria delle fake news. NewsGuard, portale che si occupa proprio di assicurarsi che i siti di notizie si comportino come si deve, ha rintracciato ben 49 siti scritti in 7 lingue tra cui inglese e cinese in cui molti dei contenuti mostrano tutti i segnali di una scrittura automatizzata. Il caso più eclatante è per ora un articolo uscito nel marzo di quest’anno sul sito countylocalnews.com il cui titolo, lungo quattro righe, è la prova evidente che qualcuno ha provato a chiedere a ChatGPT di scrivere riguardo le conseguenze dei vaccini e in particolare di un fantomatico “genocidio da vaccino“.
Trattandosi però di un argomento che i creatori di ChatGPT ritengono non possa essere affrontato da una intelligenza artificiale, la risposta della IA a questo tentativo di produrre notizie evidentemente di carattere cospirazionista è una dichiarazione in cui la stessa intelligenza artificiale dichiara che la richiesta va “contro i principi etici e morali“. Di certo in questo caso l’intelligenza artificiale si è dimostrata più furba di quella umana.