g-docweb-display Portlet

Il medico ambizioso è maschio, l'infermiere sensibile è femmina. Il giochino per capire come l'intelligenza artificiale discrimina - Intervento di Guido Scorza

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Il medico ambizioso è maschio, l'infermiere sensibile è femmina. Il giochino per capire come l'intelligenza artificiale discrimina
Intervento di Guido Scorza, componente del Garante per la protezione dei dati personali
(HuffPost, 3 novembre 2022)

Ora, però, Sasha Luccioni, una ricercatrice canadese ha sviluppato e pubblicato un'App che consente a chiunque, anche non addetto ai lavori, di toccare con mano la gravità della situazione

Gli ingegneri, gli amministratori delegati e i medici sono tutti o quasi uomini mentre il personale infermieristico e quello addetto alle pulizie è quasi esclusivamente femminile. E non basta.

Alcuni aggettivi come ambizioso o determinato sono più frequentemente ricollegati al genere maschile mentre altri come sensibile o paziente appartengono di più al genere femminile.

Questo, almeno, secondo l’intelligenza artificiale – o, meglio, i dati e gli algoritmi – che danno vita a Stable Diffusion AI, una soluzione per la generazione di immagini ovvero un sistema che dati taluni attributi come, ad esempio, una professione e un aggettivo, propone all’utente una serie di fotografie che rispondono, o dovrebbero rispondere, a tali attributi.

Che le soluzioni di intelligenza artificiale soffrano di una serie di pregiudizi, anche di genere, più o meno gravi, spesso figli dei pregiudizi che affliggono da sempre l’umanità non è, naturalmente, una novità.

Ora, però, Sasha Luccioni, una ricercatrice canadese ha sviluppato e pubblicato un “giochino” che consente a chiunque, anche non addetto ai lavori, di toccare con mano la gravità della situazione.

E vale davvero la pena provare.

Basta collegarsi a questo sito, selezionare un aggettivo e quindi una professione nella colonna di destra e fare altrettanto nella colonna di sinistra.

Per esempio, a destra si può indicare medico ambizioso e a sinistra infermiere sensibile.

In una manciata di secondi il sistema genera a destra nove immagini maschili e a sinistra nove immagini femminili: come dire che i medici ambiziosi sono necessariamente uomini e le infermiere sensibili tutte donne.

E, naturalmente, l’esperimento può essere ripetuto un numero enorme di volte con risultati, purtroppo, drammaticamente ricorrenti: all’associazione di taluni sostantivi e taluni aggettivi l’intelligenza artificiale risponde con immagini solo o prevalentemente maschili e all’associazione di altri sostantivi e aggettivi con immagini solo o prevalentemente femminili.

Certo si tratta di pregiudizi culturali che prima che agli algoritmi dietro a Stable Diffusion AI appartengono alla nostra società perché, purtroppo, molti di noi, ancora oggi, quando pensano a un medico in gamba pensano più istintivamente a un uomo e quando pensano a un infermiere paziente più di frequente a una donna che a un uomo ma la ricercatrice canadese è andata oltre e ha incrociato le risposte del sistema di intelligenza artificiale con una serie di dati statistici.

Risultato: i pregiudizi culturali che pervadono l’algoritmo superano la realtà delle cose nel senso che, ad esempio, il sistema artificialmente intelligente contempla l’eventualità che una donna sia un ingegnere civile in misura nettamente inferiore alla percentuale di donne ingeneri civili effettivamente esistenti.

Difficile non essere preoccupati.

Se l’intelligenza artificiale, gli algoritmi e i big data anziché rendere la nostra società migliore anche consentendoci di superare certi radicati pregiudizi culturali alla base di inaccettabili discriminazioni di genere la rendessero peggiore, amplificando questi pregiudizi, il futuro che ci aspetta è decisamente a tinte fosche.

Anche perché è scontato che delegheremo sempre di più ai sistemi di intelligenza artificiale con la conseguenza che gli effetti di certi pregiudizi algoritmici saranno sempre più pervasivi e il loro impatto sempre più nefasto sulla società.

Le immagini generate da Stable Diffusion AI, tanto per fare un esempio, sono ormai inserite in alcuni dei più gettonati archivi fotografici digitali utilizzati da piccoli e grandi media in tutto il mondo con la conseguenza che se il sistema in questione, sotto la voce medico, inserisce solo immagini di uomo, inesorabilmente, contribuirà in maniera determinate a perpetuare un pregiudizio culturale che viene da lontano continuando a persuadere milioni di persone che sia normale pensare a un medico uomo più istintivamente di quanto si pensi a un’infermiera donna.

Buona parte della responsabilità di questa situazione è legata ai processi di addestramento degli algoritmi in questione e alle basi dati che si utilizzano a questo scopo perché, normalmente, è così che i nostri pregiudizi culturali si trasformano in bias algoritmici.

Ed è a questo livello che occorre intervenire senza perdere tempo e prima che sia troppo tardi imponendo a chiunque sviluppi soluzioni di intelligenza artificiale o voglia utilizzarle di sottoporre la propria soluzione, sin dalle fasi di progettazione e poi di addestramento, a una valutazione di impatto anti-bias, capace di scongiurare alla radice il rischio che si producano risultati discriminatori come quelli appena denunciati dalla ricercatrice canadese.