g-docweb-display Portlet

Ghiglia: “Una tassa alle big tech per l’educazione digitale di tutti” - Intervista ad Agostino Ghiglia

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Ghiglia: “Una tassa alle big tech per l’educazione digitale di tutti”
La causa di New York contro le Big Tech e le preoccupazioni di Sam Altman sull’IA sottolineano i rischi di dipendenza dai social e la necessità di regolamentare l’IA. Una edutassa per finanziare l’educazione digitale e l’istituzione di un’Onu per l’IA potrebbero garantire un uso etico della tecnologia e proteggerci dai suoi rischi
Intervento di Agostino Ghiglia, componente del Garante per la protezione dei dati personali
(AgendaDigitale, 20 febbraio 2024)

Due notizie , a mio avviso, hanno scosso negli ultimi giorni l’universo che ruota attorno all’ Intelligenza artificiale e/o ai social, facce complementari del poliedrico universo dell’IA medesima: la causa intentata dalla Città di New York contro i social e le ultime dichiarazioni del Patron di ChatGPT, Sam Altman.

La causa intentata da New York contro i social

La causa promossa dalla Big Apple contro le Big Tech (TikTok, Facebook,Instagram, YouTube e Snapchat) mette in luce un problema più ampio che affligge la società contemporanea, legato certamente alla crescente dipendenza -non solo delle giovani generazioni- dai social media ma anche alla massiva, indiscriminata e verosimilmente non sempre adeguata alle norme, raccolta di dati personali ad opera delle piattaforme nonché alle crescenti preoccupazioni riguardo l’impiego e la regolamentazione dell’intelligenza artificiale (IA).

Gli effetti dell’uso dei social sulla salute mentale

Secondo gli estensori della causa i social “alimenterebbero crisi psicologiche tra i giovani mai viste prima” mentre gli algoritmi da essi usati “attirano, intrappolano e alimentano la dipendenza”. Senza scomodare il problema, sempre più grave ed attuale degli “Hikikomori”, alzi mano dallo schermo chi, dopo aver visto un reel, non ha “scrollato” per almeno 15 minuti (occhio che , a breve , con Neuralink potremo sapere se avete detto la verità).

Le preoccupazioni di Sam Altman sull’IA non regolamentata

Sam Altman, figura di spicco nel campo dell’IA, più o meno nelle stesse ore, ha espresso serie preoccupazioni sulle potenziali minacce che l’IA senza regole potrebbe rappresentare per la società, sottolineando come l’assenza di un quadro normativo adeguato lo renda, eufemisticamente, inquieto: “Non dormo la notte se penso ai rischi e alla mancanza di regole”. Il Nostro non é nuovo a dichiarazioni di questo tipo : “ Se questa tecnologia va male, può andare molto male…” (5/2023). “ ….Va tenuta a bada, limitata per legge e controllata da un’Agenzia Internazionale ….così come é stato fatto per gli armamenti nucleari”. “Dobbiamo stare attenti, anche noi siamo un pò spaventati”(3/2023). Ora se Sam Altman non dorme, noi e i nostri gemelli digitali dovremmo essere doppiamente preoccupati: per le conseguenze sull’allenamento degli algoritmi derivati dell’insonnia lacunare e, più seriamente, per i rischi evidenti legati ad un uso non regolamentato di uno strumento, senza usare altri aggettivi, potentissimo per e sulle nostre vite.

L’impatto dell’IA sullo sviluppo cognitivo e sociale delle giovani generazioni

Le dichiarazioni di Altman evidenziano un aspetto cruciale del dibattito attuale: l’IA, e in particolare l’intelligenza artificiale generativa, ha il potenziale sia di rivoluzionare auspicabilmente in modo positivo e virtuoso il nostro mondo sia di presentare rischi significativi, specialmente per lo sviluppo intellettuale e culturale delle giovani generazioni e questo a prescindere dalle ricadute occupazionali non di nostro interesse in questa sede.L’IA può influenzare il modo in cui apprendiamo, pensiamo e interagiamo gli uni con gli altri, potenzialmente limitando la nostra capacità di pensiero critico e la nostra creatività se diventiamo eccessivamente dipendenti da Essa per l’elaborazione delle informazioni e la soluzione dei problemi.

Questa preoccupazione si estende oltre i confini dell’educazione e tocca questioni fondamentali di autonomia e identità personale fino ad arrivare al libero arbitrio, alla capacità di discernimento fra ciò che é giusto e ciò che é sbagliato.

Se le giovani generazioni crescono in un ambiente in cui l’IA fornisce risposte pronte e soluzioni facili, risultati senza fatica né consultazione di più fonti, potrebbero perdere la capacità di affrontare sfide complesse, di sviluppare il pensiero critico e di valutare le informazioni in modo consapevole, meditato,indipendente. Tale scenario non solo impoverirebbe il tessuto intellettuale e culturale della società ma minerebbe anche, in prospettiva, le basi della democrazia e della partecipazione civica, che si fondano sulla capacità dei cittadini di pensare in modo libero e autonomo e di agire in base a tale pensiero.

L’importanza della regolamentazione e dell’educazione nell’era dell’IA

Un approccio equilibrato alla regolamentazione dell’IA, che comprenda sia misure legislative che iniziative educative, è fondamentale per mitigare i rischi evidenziati da Altman e altri esperti. Le cause legali come quella newyorkese, con tutta l’alea del rischio e i tempi non certamente brevi per la loro soluzione, possono avere un ruolo cruciale nel cristallizzare e dimostrare le eventuali responsabilità delle Aziende interessate (e delle altre centinaia non chiamata in causa…) ma rappresentano solo una parte della soluzione così come affrontano il problema a valle e non a monte.

Una strategia olistica, invece, che includa la regolamentazione e il coinvolgimento attivo di tutte le parti interessate – governi, aziende, comunità educative e il pubblico – è, a mio avviso, la migliore e più utile per navigare in modo sicuro e responsabile nell’era dell’intelligenza artificiale.

É fondamentale, inoltre, che il dialogo su questi temi resti aperto e inclusivo, esca dalle Aule e scenda dalle cattedre, coinvolgendo non solo esperti e legislatori ma anche l’opinione pubblica e l’associazionismo (con particolare riguardo a quello che si occupa di minori e anziani). Solo attraverso un impegno collettivo è possibile garantire che i benefici potenziali dell’IA siano accessibili a tutti e che i suoi rischi siano limitati e non dannosi per le persone e i loro Diritti.

Una “edutassa” come possibile soluzione per la regolamentazione dell’IA

In tale contesto, ovviamente, l’educazione gioca un ruolo chiave e l’edutassa – una tassa finalizzata all’educazione digitale che le Big Tech dovrebbero versare ad ogni Stato in proporzione al numero di utenti presenti nello Stesso – potrebbe essere lo strumento più efficace per la sua diffusione consentendo, grazie ad ingenti risorse, di preparare le giovani generazioni a vivere in modo umano in un mondo sempre più digitale e automatizzato ma anche per garantire che la società nel suo insieme possa affrontare le questioni etiche, sociali e culturali sollevate dall’IA.

Programmi educativi ben progettati possono aiutare a colmare il divario tra l’ultra rapida evoluzione tecnologica e la nostra capacità di comprenderne e governarne gli impatti.

I possibili utilizzidell’edutassa

La proposta di un’Edutassa, in questo contesto, acquisisce una nuova dimensione: non solo potrebbe finanziare, come sopra detto, campagne di educazione civica digitale, ma potrebbe anche sostenere programmi specificamente progettati per insegnare agli studenti come utilizzare in modo critico e consapevole l’IA. Questi programmi potrebbero includere lezioni su come funzionano gli algoritmi, come possono essere “biasati” (“distorti “ per Boomers e Generazione X) , come gli utenti possono mantenere il controllo sui loro dati e sulle decisioni automatizzate prese in loro nome.

L’Edutassa, inoltre, potrebbe finanziare la ricerca su come l’IA potrebbe essere utilizzata eticamente nell’educazione e nello sviluppo professionale, nonché strutturando iniziative che promuovano la diversità e l’inclusione nel campo della tecnologia. Tali risorse, ancora, potrebbero servire per affrontare il divario digitale e assicurare che tutti abbiano accesso alle opportunità offerte dall’IA e prevenendo e mitigando la possibile accentuazione delle disuguaglianze esistenti.

Oltre a quanto sopra accennato, l’Edutassa potrebbe contribuire a finanziare iniziative tese a promuovere la trasparenza e la responsabilità nell’uso dell’IA da parte delle aziende, compresa la realizzazione di audit indipendenti e la pubblicazione di report sull’impatto sociale delle loro tecnologie. Tali attività potrebbero aiutare a costruire una fiducia pubblica maggiore nelle applicazioni dell’IA e garantire che il loro sviluppo sia basato e guidato da solide impostazioni etiche e non solo da obiettivi commerciali.

Un’altra area in cui l’Edutassa potrebbe fare la differenza è il sostegno alla ricerca su metodi di IA responsabili e inclusivi grazie allo sviluppo di algoritmi privi di pregiudizi che assicurino sistemi di IA accessibili a persone di tutte le età, abilità e contesti socio-economici nonché la promozione di un ambiente digitale che rispetti e valorizzi la diversità umana.

Un’ONU dedicata all’Intelligenza Artificiale

É fondamentale, infine che le politiche sostenute dall’Edutassa, riflettano una visione globale, tenendo conto delle diverse realtà culturali, sociali e economiche. In un mondo interconnesso, i rischi e le opportunità dell’IA trascendono i confini nazionali, rendendo essenziale la cooperazione internazionale. Le strategie di educazione e regolamentazione dovrebbero quindi essere sviluppate in un dialogo globale, garantendo che tutti i paesi abbiano voce in capitolo e che le soluzioni adottate siano equamente distribuite e accessibili.

A Tal proposito servirebbe ampliare la suggestione di Sam Altman, ossia creare un’ONU dedicata all’Intelligenza Artificiale nella quale, deposte le armi di brevetti, silenziati i super computer e messi da parte (non eliminati) gli interessi commerciali e la competizione intercontinentale, si fissassero le basi minime per una regolamentazione tesa al bene della persona umana che , al di là della buona volontà e del pregevole risultato, non impegnasse solo quel ventesimo della popolazione mondiale che corrisponde alla Vecchia Europa.

Conclusioni

In conclusione, mentre la causa legale intentata da New York contro le piattaforme social evidenzia problemi immediati e tangibili, la questione dell’IA richiede una riflessione più ampia ma molto più urgente vista la velocità ipersonica dello sviluppo tecnologico. L’Edutassa rappresenta una proposta innovativa che potrebbe fornire le risorse necessarie per affrontare questi problemi in modo sistematico, promuovendo un uso dell’IA sicuro, etico e vantaggioso per l’intera società. Affrontando i problemi di oggi e anticipando quelli di domani, possiamo lavorare insieme per garantire che la rivoluzione digitale porti benefici a tutti, senza compromettere i valori fondamentali di autonomia, protezione dei dati personali e giustizia sociale.

Per l’ONU dell’IA chi lo sa…In fondo, anche nell’Era Digitale, sognare non costa ma, soprattutto, fa dormire tranquilli

 

Scheda

Doc-Web
9986495
Data
20/02/24

Argomenti


Tipologie

Interviste e interventi