g-docweb-display Portlet

Audizione della Vice Presidente del Garante per la protezione dei dati personali, Ginevra Cerrina Feroni. Seguito dell'indagine conoscitiva sui livelli e i meccanismi di tutela dei diritti umani in Italia e nella realtà internazionale

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Audizione della Vice Presidente del Garante per la protezione dei dati personali, Ginevra Cerrina Feroni. Seguito dell'indagine conoscitiva sui livelli e i meccanismi di tutela dei diritti umani in Italia e nella realtà internazionale

Senato della Repubblica - Commissione straordinaria per la tutela e la promozione dei diritti umani
(8 luglio 2025)

GUARDA IL VIDEO

Ringrazio la Commissione per quest’occasione di confronto, estremamente stimolante per le prospettive, anche di orizzonte, che implica. L’impatto dell’i.a. sui diritti umani è, infatti, tale da esigere una riflessione comune e, direi, un’alleanza interistituzionale per consentire che questa tecnologia diventi strumento di promozione e mai di violazione dei diritti e delle libertà. Lo stesso Ai Act sottende una consapevolezza di fondo delle profonde interrelazioni tra i.a. e diritti fondamentali (locuzione, come noto, preferita nel diritto unionale rispetto a “diritti umani”).  

Il suo art. 1 individua, infatti, nella tutela dei diritti fondamentali uno degli scopi principali del regolamento e in tutto il corpo normativo essi costituiscono tanto obiettivo di tutela quanto parametro di ammissibilità- oltre che standard regolatorio- dei sistemi algoritmici. L’incidenza sui diritti fondamentali è, del resto, criterio di valutazione del rischio connesso al sistema di i.a. che ne orienta la collocazione all’interno della complessa tassonomia stilata dal regolamento e, allo stesso tempo, oggetto specifico della valutazione d’impatto necessario per il ricorso a determinati sistemi di i.a. ad alto rischio.

E’ inoltre significativo che la definizione di incidente e rischio sistemico si fondino sull’impatto sui diritti fondamentali, che esso sia oggetto della sorveglianza umana imposta dall’art. 14; quella relativa ai diritti umani sia una competenza specifica di cui deve disporre il personale dell’autorità di notifica (art. 28, p.7) e in genere delle autorità competenti (art. 70, p.3); l’incidenza sui diritti fondamentali sia parametro di valutazione per le sperimentazioni normative (art. 57, p.11); le autorità con compiti di tutela di tali diritti siano assegnatarie di specifici poteri (art. 77) e destinatarie di un puntuale obbligo di consultazione (art. 82); l’incidenza sui diritti fondamentali radichi uno specifico diritto alla spiegazione del processo decisionale di un sistema di i.a. ad alto rischio (art. 86).

Tra gli strumenti principali di tutela della persona e dei suoi diritti rispetto a usi distorsivi dell’i.a. vi è la protezione dei dati, la cui disciplina ha, significativamente, introdotto per la prima volta (già a partire dal 2016) uno statuto giuridico essenziale del processo algoritmico. Esso si fonda sui principi di trasparenza, non discriminazione, non esclusività della decisione algoritmica, che impone di consentire l’introduzione, nel processo decisionale, di un intervento umano idoneo a controllare, validare o smentire la decisione algoritmica (c.d. human in the loop), nonché criteri di qualità ed esattezza dei dati da utilizzare, particolarmente rilevante per evitare i bias propri di un addestramento dell’algoritmo sulla base di informazioni inesatte o non sufficientemente rappresentative.

Sulla base di tali norme, l’Autorità ha adottato alcuni provvedimenti particolarmente importanti per un corretto sviluppo dell’i.a., quali quelli nei confronti di ChatGpt, Replika e, da ultimo, Deepseek. Grazie ai primi due, è stato possibile colmare alcune carenze proprie di queste chatbot assicurando agli utenti (in particolare minorenni) le garanzie essenziali nella fruizione di algoritmi altrimenti capaci di “rastrellare”la vita degli altri, di esporre i ragazzi a contenuti inadeguati e di diffondere, anche, fake news, con effetti profondamente distorsivi rispetto ai corretti processi informativi.

Il provvedimento adottato nei confronti di DeepSeek, poi, è sotto molti aspetti ancor più paradigmatico, perché espressivo delle implicazioni che l’i.a. ha sui diritti umani e sulle prospettive di governance di questa tecnologia, tanto preziosa quanto rischiosa. DeepSeek è il software di intelligenza artificiale relazionale, progettato per comprendere ed elaborare con un chatbot le conversazioni umane, che in un brevissimo arco temporale è stato scaricato da milioni di persone, alcune delle quali in Italia.

Il 30 gennaio il Garante ha disposto, in via d’urgenza e con effetto immediato, nei confronti delle società cinesi che forniscono tale servizio di chatbot, la limitazione del trattamento dei dati degli utenti italiani. Il provvedimento, di natura essenzialmente cautelare, si fonda sulla rilevazione di alcune carenze (che l’istruttoria, contestualmente aperta, ha modo di accertare nel dettaglio) nel trattamento dei dati degli utenti, evidenziate dal riscontro alla richiesta d’informazioni inviata dal Garante. In particolare si è rilevata la carenza, nella privacy policy, delle informazioni (in particolare, il presupposto di liceità del trattamento) necessarie per consentire, agli interessati, l’esercizio dei diritti loro riconosciuti dalla disciplina di protezione dei dati. Uno dei suoi presidi essenziali è, infatti, il principio di trasparenza che impone a chi tratti i dati di rendere edotto l’interessato delle caratteristiche essenziali del trattamento. Ciò consente la prestazione, se del caso, di un consenso realmente consapevole perché informato e l’esercizio, da parte dell’interessato, delle prerogative (rettifica, limitazione, cancellazione, ecc.) che la disciplina in materia gli riconosce. Si tratta, peraltro, di poteri di intervento particolarmente rilevanti, che distinguono il diritto alla protezione dei dati da quello tradizionale alla riservatezza proprio per il suo contenuto “positivo” e non meramente “negativo”. Tali prerogative sono ancor più rilevanti rispetto all’i.a. per la capacità elevatissima di elaborazione e analisi che la caratterizza e che, infatti, ha indotto il legislatore europeo a prescrivere, all’art. 22 del Gdpr, garanzie ancor maggiori rispetto ai trattamenti di dati personali sottesi al processo algoritmico.

Nel caso di Deepseek, poi, la dimensione “territoriale” (e geopolitica), ovvero la circostanza che i dati raccolti dal chatbot siano conservati in Cina, ovvero in un contesto ordinamentale carente delle garanzie richieste dal legislatore unionale a tutela dei diritti dei cittadini europei, aggiunge ulteriori motivi di preoccupazione. Andrebbe, inoltre, verificato se e in che misura il servizio fornito rifletta quei requisiti di rappresentatività – del set di dati con i quali addestrare l’algoritmo – previsti dalla disciplina europea proprio per evitare bias, in particolare discriminatori. Bisogna chiedersi, non tanto con riferimento al caso specifico ma in linea generale, se l’algoritmo sia stato formato su un compendio informativo volutamente selettivo e non sufficientemente rappresentativo della realtà di riferimento. Il rischio, altrimenti, è una sorta di censura che può determinare, non solo nelle autocrazie, distorsioni e manipolazioni del processo di formazione dell’opinione pubblica.

E’ significativo che il legislatore europeo, memore delle implicazioni che il caso Cambridge Analytica  ha avuto su alcuni processi referendari ed elettorali, non solo americani, abbia disciplinato in maniera rigorosa il targeting politico (Reg. 2024/900) in particolare se fondato su i.a., affidando peraltro un ruolo centrale, nell’applicazione di queste norme, alle autorità di protezione dati.

E sono, del resto, queste stesse autorità quelle designate, dallo stesso AI, quali autorità competenti per l’uso di sistemi di i.a. ad alto rischio in contesti sensibilissimi sotto il profilo dei diritti fondamentali, quali quello delle attività di contrasto, i processi democratici, la gestione delle frontiere e la giustizia.   La scelta si comprende alla luce della particolare esperienza acquisita dalle Autorità di protezione dati, già con il GDPR, nella regolazione democraticamente sostenibile dei processi algoritmici al punto da aver consentito, come detto, al Garante, di conformare l’utilizzo dell’i.a. con i valori propri dell’ordinamento costituzionale ed europeo e, in primo luogo, con la tutela dei diritti umani.

Di fronte all’impatto dirompente dell’i.a. sui diritti umani, si dovrebbe allora ragionare sull’opportunità di affiancare- alle Autorità di notifica e regolazione del mercato per il regolamento sull’i.a.– un’Autorità unica che eserciti i poteri già riservati dall’art. 77 alle “autorità che tutelano i diritti fondamentali”, vigilando con una prospettiva organica, non frammentaria, sull’incidenza dell’i.a. sui diritti umani.

Potrebbe essere questa, in particolare, l’occasione per l’istituzione, da troppe legislature auspicata ma mai realizzata, dell’Autorità indipendente per la tutela dei diritti umani con requisiti corrispondenti a quelli enunciati dai principi di Parigi (tra i quali la reale indipendenza dal Governo) e competenza estesa, tra l’altro, all’impatto sui diritti umani dell’i.a. Essa è tale da non consigliare, infatti, un’ulteriore frammentazione delle competenze tra Autorità varie e da esigere un’attribuzione unitaria per assicurare un’applicazione uniforme delle garanzie sancite sul punto dai vari plessi normativi: l’AI Act ma anche il GDPR e la direttiva 2016/680 sul trattamento dati nei settori della polizia e della giustizia penale, in primis.

Si potrebbe, allora, riprendere l’esame di alcuni disegni di legge già incardinati al Senato, a firma tra l’altro anche della sen. Pucciarelli, che riservano, peraltro, al Garante per la protezione dati le attribuzioni del Garante per i diritti umani. E questo nella consapevolezza di come, la rivoluzione connessa all’i.a. esiga, competenze unitarie, qualificate, indipendenti, soprattutto per la sua incidenza su quella “sfera dell’indecidibile” che, come insegna il costituzionalismo moderno, caratterizza la garanzia dei diritti umani. 

Scheda

Doc-Web
10148337
Data
08/07/25

Argomenti


Tipologie

Audizioni e memorie