g-docweb-display Portlet

Assicurazioni sanitarie: non possono essere gli algoritmi a decidere - Intervento di Guido Scorza

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Assicurazioni sanitarie: non possono essere gli algoritmi a decidere
Intervento di Guido Scorza, componente del Garante per la protezione dei dati personali
(HuffPost, 12 febbraio 2024)

È elevato il rischio, dice l'Agenzia federale americana per la sanità, che gli algoritmi in questione ancorché addestrati sulla base di milioni e milioni di dati, siano affetti da bias anche gravi che potrebbero perpetrare e amplificare pregiudizi già diffusi nella nostra società

Negli Stati Uniti d’America la questione bolliva in pentola da un po’ ed era evidente che era solo questione di tempo perché il coperchio saltasse. Il Cms – l’Agenzia federale americana per la sanità ha appena messo nero su bianco un principio che potrebbe imporre a molte assicurazioni sanitarie americane una brusca frenata nella corsa all’uso dell’intelligenza artificiale e che, in ogni caso, vale da monito anche da questa parte dell’oceano. Non può essere un algoritmo di intelligenza artificiale a decidere se e quanto un assicurato possa beneficiare della sua copertura assicurativa.

Niente in contrario, naturalmente, a che le compagnie assicurative ricorrano anche all’intelligenza artificiale nell’esercizio della loro attività, per contrastare le frodi o per assumere decisioni strategiche ma quando si tratta di decidere se un malato, dopo un trauma o un intervento chirurgico, ad esempio, abbia diritto alla copertura assicurativa dell’assistenza medica domiciliare per sette o cento giorni, gli algoritmi devono farsi da parte e la decisione deve essere assunta esclusivamente sulla base di dati e informazioni specificamente relative al paziente e dei parametri resi pubblici dall’assicurazione, sul proprio sito internet, a monte del perfezionamento della polizza.

Anche perché – e il Cms non lo manda a dire – è elevato il rischio che gli algoritmi in questione ancorché addestrati sulla base di milioni e milioni di dati, siano affetti da bias anche gravi che potrebbero perpetrare e amplificare pregiudizi già diffusi nella nostra società.

Le linee guida appena pubblicate dall’Agenzia federale americana per la sanità arrivano dopo che diversi assicurati, negli ultimi mesi, hanno promosso alcune azioni giudiziarie che potrebbero sfociare in una class action per essersi visti negare – a loro dire a seguito di una decisione esclusivamente algoritmica – il diritto alla copertura dei costi per tutta una serie di cure domiciliari necessarie a seguito di traumi gravi o interventi o chirurgici anche seri.

Secondo gli assicurati, gli algoritmi in questione – che lo facciano o meno in buona fede – perverrebbero sistematicamente a stime al ribasso in relazione alle reali esigenze di assistenza sanitaria di taluni pazienti.

Ad esempio, mentre, sin qui, secondo i parametri adottati dalle stesse compagnie di assicurazione, dopo una degenza ospedaliera di tre giorni, si potrebbe arrivare a aver diritto a assistenza presso una casa di cura, fino a cento giorni, gli algoritmi in questione, non concederebbero quasi mai più di quattordici giorni di assistenza in clinica.

Che sia effettivamente così o meno, naturalmente, dovranno essere i giudici a stabilirlo nei prossimi mesi.

Ma il Cms, prescindendo dalle singole vicende giudiziarie, nei giorni scorsi ha voluto mettere in guardia l’intero sistema sui rischi legati al ricorso agli algoritmi per assumere decisioni aventi un impatto enorme sulla vita delle persone giacché, specie negli Stati Uniti, idonee a privare una persona del suo diritto a ricevere cure adeguate.

Ma Stati Uniti a parte, il principio sembra valido anche in Europa dove la disciplina europea sulla protezione dei dati personali, il c.d. GDPR, già prevede, con pochissime eccezioni, un generale divieto di decisioni basate su trattamenti unicamente automatizzati capaci di incidere sui diritti e gli interessi di una persona, divieto, addirittura rafforzato, in questo caso con pochissime eccezioni, quando ai fini dell’assunzione delle decisioni in questione agli algoritmi debbano essere dati in pasto, tra l’altro, proprio dati relativi alla salute.

E, da questa parte dell’oceano, le stesse regole prevedono, comunque, che “il titolare del trattamento attua misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell'interessato, almeno il diritto di ottenere l'intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione”.

L’ultima parola, insomma, deve – o, almeno, dovrebbe – toccare sempre a un umano e dovrebbe sempre trattarsi di un’ultima parola sostanziale, ovvero di una revisione effettiva della decisione algoritmica.

Le regole, insomma, ci sono ma proprio come suggerisce la vicenda americana, mentre il mondo intero corre verso il ricorso sempre più spinto a soluzioni di ogni genere di intelligenza artificiale è indispensabile tenere gli occhi aperti, non stancarsi mai di illuminare i guard rail che lungi dal restringere e limitare l’innovazione la orientano, invece, in una direzione sostenibile e, soprattutto, investire sempre di più nell’educazione delle persone alla vita con gli algoritmi e ai diritti fondamentali per scongiurare il rischio che tecnologie e mercati possano imporre le loro regole a a milioni di persone incapaci di comprenderne l’impatto e di rivendicare i propri diritti e le proprie libertà.