La normativa europea per proteggersi dai contenuti AI

[mer 10 luglio 2024]

Ecco le norme per aiutare gli utenti a riconoscere i contenuti prodotti dall'AI



L'impatto dell'AI sulla vita professionale, privata, sui suoi aspetti più ludici e meno seri, è divampante. L'utilizzo dell'intelligenza artificiale nella produzione di contenuti è pervasivo, tocca diversi ambiti, si declina in varie forme e i risultati sono talmente realistici che a volte sembra impossibile distinguere cosa è vero da cosa, invece, è un mero artefatto. Questo può valere per i testi, (vi ricordate il caso del romanzo giapponese applaudito e premiato scritto in parte, per stessa ammissione della sua autrice, con l'ausilio dell'intelligenza artificiale?) per la musica (come dimenticare il brano Now and Then dei Beatles pubblicato nel novembre dell'anno scorso grazie all'applicazione dell'AI) come per i video e per le immagini. 

Scopri FIbeRevolution, la tua fibra per scelta

Parlando di immagini, appunto, legate all'uso dell'intelligenza artificiale, viene subito in mente il termine inglese deepfake, la tecnica che permette di sovrappore immagini umane, reali, con video e immagini basate sull'AI, create grazie all'abilità dell'apprendimento automatico, nota come rete antagonista generativa. Questi contenuti possono risultare così credibili da sembrare addirittura autentici innescando così un doppio problema: la riconoscibilità da parte dell'utenza che potrebbe credere di trovarsi di fronte a un'immagine reale invece che a un deepfake e l'uso, a volte abuso, delle immagini umane di partenza con una conseguente volazione della privacy del suo o dei suoi titolari. 

A risolvere il problema, o perlomeno, a tentare di mettere dei paletti, dei confini, dei riconoscimenti chiari, ci stanno pensando le istituzioni sia europee che italiane. Il tema dell'AI e del tuo impatto sul pubblico è stato, infatti, a lungo dibattuto, e una regolamentazione (vedi AI ACT) chiara, e sotto alcuni aspetti, anche piuttosto stringente, è apparsa da subito necessaria. Stesso discorso per i deepfake che devono essere regolamentati in modo rigido. Vediamo come si stanno muovendo le istituzioni in questa direzione. 

Art. 50 AI ACT della Commissione Europea 

All'interno dell'articolo 50 dell'AI ACT che è ancora in via di emanazione, viene disciplinato proprio questo aspetto legato ai contenuti generati con AI. Ecco gli elementi principali che lo compongono: 

  • i fornitori di sistemi di AI che producono contenuti di qualunque tipo (audio, immagine, video o testuali) devono garantire che gli output siano marcati come generati dall’IA. Una regola che può essere derogata solo nel caso in cui i sistemi di AI svolgano una funzione di mera assistenza (un esempio può essere un'immagine solo migliorata con Photoshop);
  • i cosiddetti deepfake, definiti nell'art 3 (60) come “un'immagine o un contenuto audio o video generato o manipolato dall'IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che appare falsamente autentico o veritiero” sono disciplianti in modo ancora più rigido, tanto che coloro che li generano sono obbligati a rendere noto, citiamo testualmente, “in maniera chiara e distinguibile al più tardi al momento della prima interazione o esposizione” che il contenuto è stato prodotto o manipolato artificialmente. Le modalità dell'indicazione varia in base al contenuto e al contesto. Se il deepfake fa parte di un’opera con fini “manifestamente artistici, creativi, satirici o fittizi”, gli obblighi di trasparenza sono limitati al rivelare la presenza di tali contenuti senza per questo “ostacolare l'esposizione o il godimento dell'opera”.

Art. 23 del DDL IA del Governo italiano

Sulla stessa linea si sta muovendo anche l'escutivo italiano con un recente disegno di legge, proprio sul tema dell'AI, strutturato per essere perfettamente in linea con l'AI ACT. L’articolo in questione è il numero 23 del DDL IA e prevede quanto segue:

  • qualunque contenuto informativo diffuso da emittenti e piattaforme (televisive o radiofoniche) che sia generato o modificato dall’AI in modo da presentare come reali fatti o informazioni che non lo sono, deve essere reso chiaramente riconoscibile dagli utenti mediante l'inserimento di un elemento o segno identificativo, all’inizio e fine della trasmissione, e a ogni ripresa del programma a seguito di un'interruzione pubblicitaria;
  • l'ottemperanza non è richiesta nel caso di contenuti considerati creativi, satirici, artistici o fittizi;
  • obbligo a carico delle piattaforme di condivisione dei contenuti di mettere a disposizione degli utenti una funzione per indicare quali contenuti sono deepfake.  

A quanto disposto dall'articolo 23, si aggiungono altri elementi disciplinati rispettivamente dall'art 25 del DDL IA e dall'art 612-quater del codice penale. Il primo definisce come illecita, sanzionandola, la pratica di diffondere deepfake che possano cagionare al soggetto rappresentato un danno ingiusto, tanto da portare all'introduzione nel codice penale dell'art. 612-quater, appunto, che determina il reato di “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, punito con la reclusione da uno a cinque anni.

Dalla presa visione delle norme sia europee che italiane emerge con chiarezza che la posizione delle istituzioni nei confronti dell'utilizzo e della divulgazione dei contenuti generati dall'AI non è coercitiva ma cautelativa. I contenuti deepfake che non provocano un danno ingiusto a una persona determinata non sono vietati ma devono essere sempre riconoscibili come tali in un'ottica di sana e corretta informazione e divulgazione

La Redazione


Il più venduto

FiberEvolution
Full

Per i primi 6 mesi

Fibra fino a 1 Gigabit/s

Modem Evoluto Fritz!Box 7530 AX

Chiamate Illimitate


fritzbox 7530