Lo scopo non dichiarato ma evidente dell’ultimo grande aggiornamento che ha scosso i risultati di ricerca della SERP di Google doveva essere quello di dare una bella sfoltita ai contenuti generati dall’intelligenza artificiale che non valgono nulla.
Ma la storia di un sito di ricette costruito con soli contenuti generati dall’intelligenza artificiale dimostra che forse l’algoritmo si è accanito sui soggetti sbagliati. E la storia di questo sito, raccontata anche da Montti di SearchEngineJournal, ci dimostra che siamo ormai entrati in un momento della storia del rapporto dell’umanità con internet in cui non funzionano più i vecchi sistemi. Non funzionano più neanche se ti chiami Google e cerchi di prendertela con lo spam.
Un sito spam in vetta alla SERP, com’è possibile?
Come spiegato da Montti, la chef Robin Donovan, conosciuta per il suo sito allwaysdelicious, gli ha segnalato la presenza di un sito decisamente anomalo con una quantità impressionante di query nella top ten di Google. Ma non è il sito di uno chef competitor, è un sito che, questa è la storia che si può recuperare andando a cercare per esempio anche su The Internet Archive, è stato a quanto pare messo su diverso tempo fa e a marzo di quest’anno si è riempito di contenuti: ricette con un grado di produzione umana pari a zero e in più contornato da una pletora di immagini anche se tutte quante costruite utilizzando gli strumenti di intelligenza artificiale.
Il machiavellico sito è riuscito a piazzarsi in alto, nonostante anche l’ultimo aggiornamento all’algoritmo che in teoria avrebbe dovuto premiare invece i contenuti costruiti da esseri umani competenti. Non facciamo che ripeterlo: per piacere a Google e al suo algoritmo i contenuti devono essere pensati per gli esseri umani e non solo per i motori di ricerca. Eppure questo sito finto fino al midollo supera tutti gli altri contenuti scritti da autori di libri di ricette e chef professionisti. Montti ha anche riportato un messaggio che Donovan gli ha mandato e che è ovviamente comprensibile nella sua frustrazione.
In un passaggio si legge: “hanno fatto (gli autori di siti di ricette umani) tutto quello che Google gli ha detto di fare per anni: scrivere i tuoi contenuti, fare le tue foto, sviluppare ricette uniche e di qualità, diventare un esperto nell’ambito e avere credenziali che lo dimostrano, non cercare di battere il sistema, essere genuini, creare contenuti utili. Per che cosa?”.
Una domanda lecita e che si ripropone, e probabilmente si riproporrà ancora e ancora, soprattutto perché anche se all’apparenza Google penalizza ciò che non è creato da esseri umani, esistono ancora modi in cui questi contenuti battono il sistema. Per spiegare ciò che potrebbe essere successo con questo sito, e probabilmente con altri di cui ignoriamo l’esistenza ancora, possiamo rifarci anche noi ad alcune dichiarazioni fatte da John Mueller in passato riguardo il modo in cui Google premia i siti web nuovi di zecca.
La particolarità del sito web spam di ricette create con l’intelligenza artificiale è che vengono pubblicate decine e decine di ricette nuove ogni giorno. L’algoritmo premia questi nuovi contenuti e così facendo dà loro un piccolo aiuto sto spingendoli in alto nella SERP, per circa 48 ore.
In un sito costruito in maniera organica questi picchi sono distanziati nel tempo ma con un sito web che può contare su uno scrittore che non si affatica mai e che quindi può frullare e rifrullare le stesse parole all’infinito è chiaro che, nel momento in cui un contenuto inizia la parte discendente del suo ciclo vitale nella SERP, ce ne sono almeno già cinque nuovi pronti a fare il giro a loro volta. Se quindi Google da una parte cerca di bloccare i contenuti prodotti attraverso l’intelligenza artificiale, dall’altra per avere un vero controllo di ciò che c’è in cima alla SERP dovrebbe cambiare anche il modo in cui vengono premiati i contenuti dei siti più nuovi.
Che cosa possono fare gli autori umani contro lo spam?
La frustrazione è evidente ma la rabbia nelle parole di Donovan che sottolineano come sembri tutto inutile non deve trasformarsi in una volontà di barare. Può sembrare difficile, e di certo lo è in particolare quando il traffico è uno dei modi con cui trovi i tuoi utenti e i tuoi potenziali clienti, quando è il modo in cui ti fai conoscere e in cui costruisci il tuo business.
Ma cedere alla tentazione di fare esattamente come questo sito spam e come tutti gli altri eventuali siti spam che possano esistere, e quindi lasciare che i tuoi contenuti originali spariscano a favore di contenuti più facili è un errore. Perché anche se è vero che per ora l’algoritmo non sembra aver preso bene le misure e la volontà di bloccare lo spam generato dall’intelligenza artificiale si scontra con i sistemi già in essere nella SERP, è chiaro che Google può migliorare.
Nel momento in cui miglioreranno i sistemi di controllo quei siti costruiti con l’intelligenza artificiale troveranno il loro posto, dopo pagina 100 della SERP possibilmente, e i contenuti costruiti da esseri umani potranno invece avere il loro spazio. Una considerazione a margine che possiamo fare da questa vicenda è anche che occorre avere una strategia che non contempli un solo canale di comunicazione con i propri utenti.
Prendendo proprio come esempio un sito che parli di ricette di cucina, non puoi affidarti solo a ciò che un utente con un certo languorino potrebbe chiedere a Google. Oltre a cercare di piazzarti in alto nella SERP con i tuoi contenuti devi portare avanti un dialogo con la tua community, e se non ce l’hai devi crearne una , e andare lì dove i tuoi utenti possono essere. Sfrutta tutto ciò che hai a disposizione quindi social, passaparola, newsletter, prodotti fisici come ricettari o libri che possono aiutarti anche in questi momenti in cui sembra che di te all’algoritmo non importi nulla.