Disciplinare l’utilizzo dell’intelligenza artificiale è un aspetto della rivoluzione delle AI che non deve sorprendere.
Per capire però che cosa succederà adesso, vediamo cosa è previsto nello AI Act che secondo alcuni potrebbe anche avere ripercussioni a livello globale e non solo dentro i confini dell’Unione Europea.
La legge europea sull’intelligenza artificiale e il suo utilizzo arriva dopo i due altri Act che hanno portato, per esempio, a una revisione del modo in cui Apple è costretta ad avere rapporti con gli altri attori del settore dei device mobili. Quali possono essere le ripercussioni per il Digital Business di questo nuovo set di regole?
AI Act, cosa prevede la legge europea sull’intelligenza artificiale?
Per capire quello che avverrà abbiamo iniziato dal sito che può dare le prime informazioni: il sito ufficiale della Commissione Europea che ha pubblicato un breve compendio su quello che ci si può aspettare anche nel futuro ora che lo AI Act è arrivato. Quello che si ricorda in apertura è che innanzitutto siamo di fronte al primo quadro giuridico in assoluto che cerca di incasellare in qualche modo l’utilizzo dell’intelligenza artificiale e che ne affronta i rischi.
“La legge sull’IA fa parte di un più ampio pacchetto di misure politiche a sostegno dello sviluppo di un’IA affidabile, che comprende anche il pacchetto sull’innovazione in materia di IA e il piano coordinato sull’IA”: lo scopo ultimo, quindi, è che chi usa l’intelligenza artificiale lo faccia creando però progetti che siano affidabili e tutte rispettino “la sicurezza dei diritti fondamentali delle persone e delle imprese“. Nessuna volontà, questo almeno è il messaggio che vuole arrivare, di bloccare in alcun modo l’innovazione ma un quadro giuridico e normativo reso necessario perché “gli europei possano fidarsi di ciò che l’IA ha da offrire“.
La sicurezza di ciò che si può produrre con una intelligenza artificiale è stata da subito una questione decisamente spinosa. Dalle fake news ai deep fake passando per le truffe, i video falsi per piegare l’opinione pubblica, i contenuti pericolosi o semplicemente sbagliati, tutto quello che può andare storto quando l’intelligenza artificiale non viene utilizzata secondo criteri di rispetto è già sotto gli occhi di tutti.
Quello che la legge europea mette in conto sono proprio tutti i rischi e in particolare in quelle attività in cui un utilizzo dell’intelligenza artificiale può essere estremamente pericoloso. Vengono perciò chiariti quattro livelli di rischio, dal rischio minimo al rischio inaccettabile. E ogni livello di rischio corrisponde ad una serie di attività della vita di tutti i giorni, valutate in base a quale potrebbe essere l’impatto che una AI fuori controllo o usata in maniera malevola potrebbe generare.
Oltre alla sicurezza degli utenti c’è anche un aspetto che è stato da subito altrettanto problematico: il copyright del materiale su cui sono stati allenati i sistemi di intelligenza artificiale. La legge europea prevede infatti che tutti gli sviluppatori che vogliono addentrarsi nell’intelligenza artificiale debbano adeguarsi alle leggi europee sul copyright.
Questo significa che c’è nero su bianco la richiesta di fornire identificativi precisi su quello che è stato usato come palestra per l’intelligenza artificiale. E chi per esempio utilizza i chatbot in alcune situazioni, in particolare riguardo ciò che si trova nella fascia di alto rischio, dovrà indicare che le informazioni che vengono fornite agli utenti sono state generate da una AI così come gli output, anche visivi, generati dall’intelligenza artificiale dovranno avere una sorta di etichetta chiaramente leggibile.
In buona sostanza non c’è un blocco totale dell’utilizzo dell’intelligenza artificiale da parte dei parrucconi dell’Unione Europea quanto la presa di coscienza che l’intelligenza artificiale come qualunque altro strumento può essere utilizzata per il bene o per il male e, data la situazione super connessa in cui ci troviamo adesso, questi strumenti possono diventare molto pericolosi. Di certo chi avrà intenzione di utilizzare una intelligenza artificiale per una truffa non si sentirà eticamente bloccato da questa legge europea ma come cittadini avremo forse un’arma in più per difenderci.
Cosa puoi fare e cosa devi sapere?
Visto qual è il quadro legislativo entro cui si muoverà l’intelligenza artificiale in Europa, è lecito domandarsi quale sarà dunque il campo di utilizzo che se ne potrà fare. Se hai costruito il tuo sito web e in parte sono presenti contenuti generati dall’intelligenza artificiale, la prima cosa che dovrai fare sarà indicare, in didascalia se si tratta di un’immagine per esempio, che il contenuto è frutto di una AI.
Come accennato prima poi, se utilizzi un chatbot, dovrai far sì che sia chiaro agli utenti che non stanno parlando con un essere umano ma con una intelligenza artificiale. In generale, dunque, non è stato bloccato l’utilizzo dell’intelligenza artificiale ma si sono indicati nuovi paletti di trasparenza per mettere i cittadini nella condizione di decidere se andare avanti sul sito che stanno visitando oppure no e soprattutto come e quanto credere ai contenuti che vengono proposti.
Effetto farfalla?
Una considerazione a margine di quello che potresti trovarti a fare per integrare l’intelligenza artificiale all’interno del tuo sito web riguarda quella che potrebbe essere la portata più globale di una legge che in teoria si applica solo all’interno dell’Unione Europea. Andando per esempio a guardare a quello che è successo quando nell’Unione Europea si è cominciato a parlare di protezione dei dati personali si potrebbe immaginare di vedere uno stesso effetto farfalla fuori dai confini dell’Unione.
A livello globale, oltre all’Unione Europea c’è già la Cina che ha costruito una sua impalcatura di requisiti oltre che di regole: un segnale che quindi il bisogno di regolamentare ciò che può fare l’intelligenza artificiale è comunque sentito anche al di fuori dell’UE. A differenza di quanto successo con la protezione dei dati personali, però, quello dell’intelligenza artificiale è un business con un potenziale enorme e, proprio per questo, potrebbe esserci una maggior lentezza mondiale nell’adottare qualsivoglia regolamentazione, per paura di perdere il contatto con i futuri colossi del settore. Ma anche decidere di non decidere sarà un segnale agli utenti.