È diventata notizia virale la gigantesca gaffe che su MSN è improvvisamente apparsa qualche tempo fa e che ha come inconsapevole protagonista una intelligenza artificiale.
Negli Stati Uniti la protesta di buona parte di chi lavora nel cinema e nella TV continua con un numero di adesioni che non vacilla. Il cambiamento che l’utilizzo di tecnologie come l’intelligenza artificiale unita agli avanzamenti tecnologici della resa grafica e audio mette (oggettivamente) a rischio il lavoro di attori, attrici, sceneggiatori, tecnici delle luci e del suono e così via.
È giusto quindi che chi si trova nelle alte sfere sia consapevole che, in qualità di lavoratori, chi si trova più in basso non ha intenzione di farsi sostituire da una manciata di bit. E quello che è successo con MSN, la pagina di news gestita in buona sostanza da Microsoft, dimostra che la questione non è soltanto legata ai salari ma ne va della reputazione e della credibilità di tutti, con quelli nelle alte sfere in testa.
L’intelligenza artificiale che chiama il morto “inutile”
La notizia seria e triste è che qualche settimana fa, a soli 42 anni, Brandon Hunter, stella NBA che ha giocato nei Boston Celtic e negli Orlando Magic, è improvvisamente crollato a terra privo di vita mentre partecipava ad una sessione di yoga. Ma nel mare di necrologi scritti per commemorare Hunter, quello che è diventato virale, suo malgrado, è quello apparso sulla testata MSN, il sito di informazione di Microsoft.
Il problema di questo necrologio è che nel titolo Brandon Hunter viene definito “useless“. Che cosa avrà voluto dire l’intelligenza artificiale cui è stata affidata la scrittura di questo necrologio forse non lo sapremo mai. E forse neanche ci interessa. Perché quello che ci interessa è la figuraccia mediatica globale e globalizzata che MSN e Microsoft insieme hanno fatto.
Perché se il titolo è incomprensibile, e volendo anche offensivo, il testo che dovrebbe raccontare la vita di questo giocatore NBA sembra il risultato di un copia e incolla fatto alla cieca e di spalle da qualcuno che non sa neanche che esiste il gioco del basket. E in effetti, l’intelligenza artificiale a cui è stato chiesto di raccontare della vita di Brandon Hunter ha scritto alla cieca e senza sapere neanche che esiste il gioco del basket. Il necrologio è il frutto di questa nuova politica che anche nel mondo della comunicazione qualcuno ha deciso di adottare per cercare di risparmiare. Come riportato dal Guardian, qualche anno fa, Microsoft ha già sostituito parte dei propri giornalisti con le intelligenze artificiali, in un periodo in cui ancora non se ne parlava con la stessa frequenza di adesso: una idea che forse è sembrata geniale (la crisi, la congiuntura economica, i new media) ma che non manca di lasciare ai lettori una persistente e amarognola sensazione di presa in giro che ora sta esplodendo e mutando in acredine. Viene da chiederselo: affidare ad una intelligenza artificiale un necrologio che poi diventa una papera mondiale è effettivamente ascrivibile a un risparmio economico?
L’ultimo di una lunga serie
Per comprendere che sì, forse c’è il rischio che una parte di chi scrive sul web e di chi produce contenuti per il marketing possa trovarsi rimpiazzato da un’intelligenza artificiale ma che chi decide di rimpiazzare uno scrittore o una scrittrice umani con uno di silicone lo fa in buona sostanza a suo rischio e pericolo, oltre all’esempio del necrologio fuori luogo pubblicato su MSN vale la pena ricordare almeno un altro paio di casi in cui gli scrittori digitali hanno dato sfoggio di cosa succede se non c’è almeno supervisione umana.
Su Gizmodo, tempo fa, è apparso un articolo compendio su Star Wars con una cronologia sbagliata dei film. Un vulnus per tutti i fan e anche per gli umani che dentro Gizmodo ancora lavorano. Tra questi il deputy editor James Whitbrook che ha deciso di parlare su Twitter chiarendo che nessuno ha avuto modo di controllare la pubblicazione del contenuto, che oltre ad avere la cronologia sbagliata aveva anche tutta una serie di errori più o meno evidenti. Un altro caso è quello che ha riguardato BuzzFeed, un’altra delle testate online più conosciute nel mondo ma che ha di recente pubblicato almeno una quarantina di guide di viaggio affidate all’intelligenza artificiale palesemente senza una vena creativa.
Ma allora a che serve l’intelligenza artificiale?
Prima di poter avere una intelligenza artificiale che sia in grado di produrre contenuti che non sembrano fotocopiati tra di loro, come nel caso per esempio delle famose guide di Buzzfeed, o che contengano errori marchiani e cadute di stile inaccettabili probabilmente passerà parecchio tempo. Ma, ed è un’ipotesi valida come un’altra, potremmo anche non arrivare mai ad avere delle intelligenze artificiali che sono in grado di scrivere effettivamente come un essere umano al punto tale che nessuno può accorgersene.
E forse sarebbe il caso, adesso che possiamo, di capire qual è il ruolo dell’intelligenza artificiale all’interno della creazione di contenuti. Se ti è mai capitato di giocare con ChatGPT ti sarai infatti reso conto che anche con le migliori intenzioni i testi sono quantomai tristi ed elementari, elementari nel senso che sembrano scritti da un bambino delle elementari. Quello che però puoi fare con una intelligenza artificiale è avere un feedback riguardo delle idee per scrivere i contenuti, una struttura organizzata se vuoi aggiungere sul tuo sito una guida che tenga conto di tutta una serie di passaggi, trovare quello spunto per la didascalia di un video TikTok se non sei la persona più social del mondo.
Gli utilizzi delle intelligenze artificiali ci sono, ci sono già. Quello che non dobbiamo fare è credere che si tratti di qualcosa che può nei fatti sostituire una intelligenza umana. Perché quello che manca all’intelligenza artificiale non è la conoscenza dei fatti o la capacità di esporli, è il substrato emotivo che le esperienze producono. Neanche il più scalcinato blogger del pianeta avrebbe mai scritto un necrologio senza un abbondante strato di rispetto.
Si chiama umanità.
Ma l’intelligenza artificiale questo non lo sa.