Scrivere per il tuo sito WordPress è diventato più simile ad un compito gravoso che non ha una attività entusiasmante che ti permette di entrare in contatto con i tuoi utenti.
Si tratta di una situazione di stanchezza che condividi probabilmente con molti altri piccoli e grandi gestori di siti web in tutto il mondo. Una soluzione è quella di cambiare per esempio la frequenza con cui aggiorni i contenuti del tuo sito, cercando di organizzarti per tempo e di avere uno scadenzario da rispettare.
Un’altra soluzione potrebbe essere quella di affidarti invece a chi di mestiere scrive mettendo in fila le parole come si fa con i mattoncini Lego e può raccontare chi sei e che cosa fai al mondo senza che tu debba concentrarti anche su questo. E poi c’è la nuova strada che ti porta verso l’intelligenza artificiale. Ma, come raccontato in uno degli ultimissimi episodi di Google Search Off The Record, podcast che a prescindere ti consigliamo di seguire, occorre tenere tutte e due gli occhi aperti anche quando si parla con le entità che vivono nei nostri PC.
La IA e i nuovi Moloch digitali
Per i cinefili la parola Moloch può far venire in mente Cabiria, un film uscito nel 1914. Il regista era Giovanni Pastrone e il film raccontava, sullo sfondo della seconda guerra punica le vicende della giovane Cabiria, una ragazza che riesce a sfuggire al sacrificio per mezzo del fuoco al Dio Moloch cui sarebbe destinata.
E Moloch, di cui si trovano rimandi in diverse parti della Bibbia, è passato nel tempo ad indicare tutto ciò che ruba l’umano. Ed è per questo che ci siamo lasciati affascinare dalla sua somiglianza con l’intelligenza artificiale. di certo Gemini, Bard, ChatGPT non chiedono in sacrificio bambini cotti allo spiedo ma rischiano di portarsi via parte dell’umanità di chi li utilizza. E se per almeno una parte dei lavoratori del mondo l’umanità che l’intelligenza artificiale rischia di portarsi via è quella del lavoro, altrove è la conoscenza stessa a essere messa in crisi.
Perché, presi come siamo dall’entusiasmo per questo nuovo strumento (perché di strumento si tratta e l’entusiasmo è giusto) rischiamo di dimenticarci che come qualunque altra creatura dell’ingegno umano anche le IA possono sbagliare. E la dimostrazione di quanto riescono ad essere errati i consigli che vengono da un intelligenza artificiale arriva proprio dall’ultimo episodio di Off The Record, il podcast gestito dai membri del team Google. Nella discussione, in questo episodio sono stati coinvolti John Mueller, Lizzi Sassman e Gary Illyes che hanno provato con mano, è un po’ si sono bruciati, i servizi offerti da Gemini. È stato per esempio chiesto all’intelligenza artificiale di dare consigli sulla paginazione e Gemini ha proposto di utilizzare delle tecniche che dentro Google stessa sono state ormai mandate in soffitta.
Un commento in particolare di Sassman spiega però, almeno in parte, com’è possibile che Gemini si sia lasciata buggerare e abbia sbagliato in questo modo: “se c’è abbastanza mitologia che circola riguarda un certo pensiero o anche informazioni vecchie di cui si è parlato molto sui blog, queste informazioni possono uscire oggi nel nostro esercizio, potenzialmente“.
E in effetti è molto probabile che questo sia ciò che è successo. Il pallottoliere digitale ha prodotto il risultato che poteva in base alle informazioni che erano state inserite. Quello su cui però vogliamo concentrarci non è tanto il fatto che le IA possono sbagliare. talmente tanto è riconosciuto il fatto che possano prendere cantonate che c’è anche un nuovo termine che identifica questi errori: le allucinazioni.
Ciò su cui vogliamo concentrare il discorso è il fatto che Sassmann sia riuscita a rendersi conto molto rapidamente del fatto che l’intelligenza artificiale le aveva dato una informazione che non era più utile. Cosa sarebbe successo se, anziché qualcuno che conosce Google alla perfezione, la stessa domanda l’avesse fatta qualcuno che invece è alle prime armi e avesse pensato di trovare nella IA la risposta corretta? Da qui la necessità non solo di fare controllo umano sulle informazioni che l’intelligenza artificiale fornisce ma anche sul non cercare di avventurarsi in territori sconosciuti se non abbiamo a disposizione un essere umano in grado di guidarci in quel territorio.
Anche in questo, quindi anche se decidi per esempio di farti aiutare da una intelligenza artificiale per velocizzare la produzione di contenuti da pubblicare sul tuo sito WordPress, tieni a mente ciò che è lo scopo finale di quello che fai: scrivere contenuti che rappresentino ciò che sai e che siano utili a chi ti legge. Un po’ come l’idea che essendoci ora fotocamere potentissime in tutti gli smartphone non c’è più bisogno di avere fotografi professionisti, rischiamo di entrare in una spirale per cui si può pensare che essendoci l’intelligenza artificiale e i motori di ricerca non ci sia più bisogno di tutta una serie di maestranze tecniche addestrate a risolvere problemi specifici.
In realtà, proprio perché l’informazione è adesso più facilmente fruibile, malleabile, rimescolabile, è necessario che gli esperti continuino a parlare e a individuare quelli che sono i problemi che le intelligenze artificiali lasciate a loro stesse possono generare. E non si tratta solo delle intelligenze artificiali generative che possono aiutarti a costruire testi.
Un’altra riprova di quanto sia importante che l’essere umano che si interfaccia con l’intelligenza artificiale esamini le informazioni che gli vengono proposte viene da ciò che circola da qualche settimana sul social che una volta chiamavamo Twitter.
Sul social c’è una agguerrita fazione di artisti che sono, e in questo hanno la nostra solidarietà, contrari all’implementazione dei sistemi di intelligenza artificiale generativa nelle produzioni cinematografiche e artistiche in generale. Non fosse altro che si rischia di avere i poster di Civil War. Il famoso film ora nelle sale, infatti, è stato corredato da una serie di manifesti che però, ad un esame appena poco più attento, si sono dimostrati probabilmente prodotti dall’intelligenza artificiale: arti mancanti, prospettive fantasiose, oggetti copincollati uguali a sè stessi.
La discussione che si è aperta online ha riguardato soprattutto il fatto che ad accorgersi di queste storture, di queste allucinazioni visive, era stato nei fatti un artista e a questo artista si faceva notare che il pubblico medio non si sarebbe reso conto di nulla, vedendo di sfuggita il poster passando per esempio in metropolitana o fuori da una sala cinematografica.
E il rischio, con i testi, con le immagini, con i suoni è esattamente questo: il pubblico può non accorgersene. Da qui la responsabilità di chi pubblica i contenuti maneggiati o rimaneggiati dall’intelligenza artificiale e, di nuovo, l’importanza che ciò che una IA produce venga sottoposto ad un esame oggettivo.