L’intelligenza artificiale è il futuro. Tutti impareremo ad utilizzare le AI Overviews di Google e ce ne innamoreremo. I nostri smartphone e i nostri PC ci diranno quello che non va e ci aiuteranno a risolvere i problemi. Nessuno dovrà più fare una singola ricerca su Google.
Questo lo scenario che secondo i più ottimisti ci si prospetta quando i contenuti AI diventeranno la norma e quando i servizi che offrono questi contenuti entreranno realmente nella nostra vita di tutti i giorni. Ma quanto siamo ben disposti in realtà, sotto sotto, a lasciare che una intelligenza artificiale ci parli, ci spieghi le cose, ci dica cosa fare?
Una prima risposta la troviamo in un lungo messaggio che Neil Patel ha affidato al social che una volta era l’uccellino azzurro. Per cercare di avere poi una prospettiva più ampia sui sentimenti riguardo le intelligenze artificiali abbiamo cercato dati riguardo gli esperimenti che sono già stati fatti per guardare da vicino il rapporto che gli esseri umani hanno con le intelligenze digitali.
Patel ha pubblicato sul suo profilo social un post in cui mostra i risultati nei tempi di lettura di tre tipologie di testi. Testi che fanno parte di un esperimento che il suo team ha portato avanti e che riguarda proprio i contenuti generati.
O meglio li riguarda ma solo nella percezione degli utenti. Patel ha infatti raccontato di aver provato a disseminare su alcuni contenuti una etichetta che indicava che il contenuto era stato generato oppure una seconda etichetta in cui veniva chiarito che era generato ma che era poi stato revisionato da un essere umano.
Come hanno reagito gli utenti alla vista di queste etichette?
Vediamo i risultati dei tempi medi di lettura. Come si nota dal grafico, per quei contenuti in cui non era segnalato che erano stati generati da un’intelligenza artificiale né generati e modificati, il tempo medio di letture è stato due minuti e 36 secondi. I contenuti che invece avevano l’etichetta “scritti dall’intelligenza artificiale” hanno ricevuto una attenzione media di un minuto e 21 secondi. A metà strada i contenuti marcati come generati ma modificati con un minuto e 58 secondi.
Quello che possiamo subito trarre anche solo da questo grafico è come le persone siano comunque più propense a leggere un testo se sanno che c’è la mano di un altro essere umano mentre sono molto più restie a, volendo usare un’espressione un po’ colorita, perdere tempo con contenuti che sono prodotti dall’intelligenza artificiale.
C’è ovviamente da fare la tara riguardo la percezione che abbiamo adesso di questa tecnologia che è piuttosto nuova e che ha bisogno di essere rodata. Ma le critiche all’utilizzo dell’intelligenza artificiale sono arrivate da subito e dagli artisti si sono poi sparse a macchia di leopardo in tutti i settori. Non una recrudescenza del luddismo né, come la descrive qualcuno, una situazione simile a quando sono arrivate le prime automobili e ancora tutti andavamo a cavallo.
Ma un segnale che comunque, per almeno il futuro prossimo ravvicinato, ciò che è generato da una intelligenza artificiale avrà un impatto diverso rispetto a ciò che è umano. Un altro esperimento che sta dimostrando quanto le persone siano ancora divise su questo strumento viene dal sondaggio che è ancora in corso mentre scriviamo su Hackernoon.
Il sondaggio non riguarda l’intelligenza artificiale nel suo complesso magnifico ma un prodotto con contenuti AI che sono sotto gli occhi di moltissimi utenti: le famose o famigerate AI Overviews di Google.
Quando Google ha presentato al mondo la sua intelligenza artificiale all’interno del sistema di ricerca, lo scopo era quello probabilmente di stupire con effetti speciali. Ma sono bastati una manciata di minuti e un po’ di creatività per fare emergere subito tutte le criticità che le AI Overviews ancora contengono.
La società della grande G si è affrettata a dire che la colla sulla pizza, i gatti sulla luna, i presidenti americani morti nel 1800 che nel 2000 si laureano sono solo casi isolati rispetto alla miriade di esperienze positive che invece tanti raccontano.
È sempre vero che le minoranze che si lamentano fanno molto rumore ma a giudicare dalle collezioni di risposte strane, assurde, fuori luogo che sono state generate deve esserci effettivamente qualcosa da rodare dentro questi riassunti creati dall’intelligenza artificiale. Non è quindi strano che i risultati del sondaggio pubblicato su Hackernoon stiano vedendo una preponderanza di giudizi estremamente negativi.
Tra le quattro opzioni date, il 63% degli utenti che hanno deciso di partecipare finora ha cliccato sull’opzione “la odio e voglio che smetta” mentre un altro 27% si è dimostrato appena più possibilista scegliendo l’opzione “non mi piace per adesso ma penso possa essere migliorata”. Nessuno ha dichiarato di trovare già il servizio così com’è ideale mentre un altro 9% ha dichiarato di apprezzare la funzione e di non vedere l’ora che migliori.
Tornando all’esperimento di Patel, l’esperto in digital marketing ha ribadito più volte nel suo lungo post che nessuno dei contenuti era effettivamente generato dall’intelligenza artificiale. Addirittura uno stesso contenuto ha ricevuto in questa sorta di gigantesco test AB in alcuni casi l’etichetta di contenuto generato, nessuna etichetta o l’etichetta di contenuto generato e modificato. E per lo stesso contenuto il tempo medio di lettura è cambiato.
Se quindi veniamo messi davanti a una etichetta che chiaramente ci dice che il contenuto è umano o generato tendiamo a premiare il contenuto umano. Ma come cambia la situazione se ci viene chiesto di provare a riconoscere immagini o testi generati senza che ci venga detto che sono effettivamente stati creati da un intelligenza artificiale?
Un test, riportato sul sito ufficiale della Waterloo University del Canada ci permette di vedere da vicino che cosa succede con le immagini. I ricercatori hanno fornito a 260 partecipanti 20 immagini senza dire loro quali fossero di persone reali, ricercate su Google Search, e quali costruite ad arte con Stable Diffusion e DALL-E.
I ricercatori si aspettavano di avere circa l’85% dei partecipanti in grado di riconoscere sempre le immagini finte ma è emerso che solo il 61% dei 260 partecipanti sono stati capaci di riconoscere persone vere da persone generate.
E, secondo le dichiarazioni di Andreea Pocol, lead author dello studio, questo ci dice qualcosa. Innanzitutto che se queste immagini, che per i partecipanti sono state oggetto di analisi approfondita, fossero buttate nella rete, sui social, probabilmente quasi nessuno si accorgerebbe che sono finte. E in più ci sono tutte le potenzialità negative dell’utilizzo di questo genere di contenuti.
Nuove forme di disinformazione sono quindi dietro l’angolo. E forse è proprio per questo che ancora non ci fidiamo dei contenuti AI: oltre alle allucinazioni, agli errori, agli strafalcioni e alla mancanza di capacità per riconoscere l’ironia online c’è anche tutto ciò che altri esseri umani possono convincere le intelligenze artificiali a dire o a mostrare per scopi criminali.
La posta elettronica è uno strumento ormai imprescindibile in qualunque strategia di marketing ma configurare…
Su internet si trova di tutto e tu stai cercando idee per i tuoi contenuti.…
Qualunque sito viene pubblicato non vive nel vuoto pneumatico del suo server. La rete è…
I servizi per accorciare link sono molto diffusi. Tanti siti web fanno affidamento su plugin…
Come costruire credibilità, incrementare la visibilità e far crescere i profitti attraverso un sito web.…
Hai un errore nella tua Bacheca WordPress relativo alla versione PHP? Non ti preoccupare, lo…