L'impatto dell'AI sulla vita professionale, privata, sui suoi aspetti più ludici e meno seri, è divampante. L'utilizzo dell'intelligenza artificiale nella produzione di contenuti è pervasivo, tocca diversi ambiti, si declina in varie forme e i risultati sono talmente realistici che a volte sembra impossibile distinguere cosa è vero da cosa, invece, è un mero artefatto. Questo può valere per i testi, (vi ricordate il caso del romanzo giapponese applaudito e premiato scritto in parte, per stessa ammissione della sua autrice, con l'ausilio dell'intelligenza artificiale?) per la musica (come dimenticare il brano Now and Then dei Beatles pubblicato nel novembre dell'anno scorso grazie all'applicazione dell'AI) come per i video e per le immagini.
Parlando di immagini, appunto, legate all'uso dell'intelligenza artificiale, viene subito in mente il termine inglese deepfake, la tecnica che permette di sovrappore immagini umane, reali, con video e immagini basate sull'AI, create grazie all'abilità dell'apprendimento automatico, nota come rete antagonista generativa. Questi contenuti possono risultare così credibili da sembrare addirittura autentici innescando così un doppio problema: la riconoscibilità da parte dell'utenza che potrebbe credere di trovarsi di fronte a un'immagine reale invece che a un deepfake e l'uso, a volte abuso, delle immagini umane di partenza con una conseguente volazione della privacy del suo o dei suoi titolari.
A risolvere il problema, o perlomeno, a tentare di mettere dei paletti, dei confini, dei riconoscimenti chiari, ci stanno pensando le istituzioni sia europee che italiane. Il tema dell'AI e del tuo impatto sul pubblico è stato, infatti, a lungo dibattuto, e una regolamentazione (vedi AI ACT) chiara, e sotto alcuni aspetti, anche piuttosto stringente, è apparsa da subito necessaria. Stesso discorso per i deepfake che devono essere regolamentati in modo rigido. Vediamo come si stanno muovendo le istituzioni in questa direzione.
All'interno dell'articolo 50 dell'AI ACT che è ancora in via di emanazione, viene disciplinato proprio questo aspetto legato ai contenuti generati con AI. Ecco gli elementi principali che lo compongono:
Sulla stessa linea si sta muovendo anche l'escutivo italiano con un recente disegno di legge, proprio sul tema dell'AI, strutturato per essere perfettamente in linea con l'AI ACT. L’articolo in questione è il numero 23 del DDL IA e prevede quanto segue:
A quanto disposto dall'articolo 23, si aggiungono altri elementi disciplinati rispettivamente dall'art 25 del DDL IA e dall'art 612-quater del codice penale. Il primo definisce come illecita, sanzionandola, la pratica di diffondere deepfake che possano cagionare al soggetto rappresentato un danno ingiusto, tanto da portare all'introduzione nel codice penale dell'art. 612-quater, appunto, che determina il reato di “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, punito con la reclusione da uno a cinque anni.
Dalla presa visione delle norme sia europee che italiane emerge con chiarezza che la posizione delle istituzioni nei confronti dell'utilizzo e della divulgazione dei contenuti generati dall'AI non è coercitiva ma cautelativa. I contenuti deepfake che non provocano un danno ingiusto a una persona determinata non sono vietati ma devono essere sempre riconoscibili come tali in un'ottica di sana e corretta informazione e divulgazione.
La Redazione