Il mondo dell’informazione contemporanea è, come evidente, affetto dalla cosiddetta infodemia, ovvero la diffusione di un numero eccessivo di informazioni talvolta inaccurate, con il risultato di dar vita a un panorama caratterizzato dalla difficoltà di orientarsi rispetto a un determinato argomento in maniera corretta.
In questo scenario, non meno negativo è il ruolo giocato dai bias, in italiano sinonimo di pregiudizi e distorsione, presenti in molti campi dell’informazione ma anche in ambito medico, legati all’intelligenza artificiale (IA).
Bias nell’IA Health Care
Il bias nel campo medico può essere di tre tipi, algoritmico, basato sui dati e umano, e come riportato da uno studio ‘la distorsione negli algoritmi di intelligenza artificiale per l’assistenza sanitaria può avere conseguenze catastrofiche propagando pregiudizi sociali profondamente radicati’.
Conseguenza di questo può essere ‘una diagnosi errata di alcuni gruppi di pazienti, come quelli appartenenti alle minoranze etniche e di genere, che hanno una storia di sottorappresentazione nei set di dati esistenti, amplificando ulteriormente le disuguaglianze’.
L’obiettivo è quello di muoversi verso l’equità nell’IA per l’assistenza sanitaria attraverso:
- lo sviluppo di algoritmi di intelligenza artificiale incentrati sul partecipante e sulla scienza partecipativa
- condivisione responsabile dei dati e standard di dati inclusivi a sostegno dell’interoperabilità
- condivisione del codice, inclusa la condivisione di algoritmi di intelligenza artificiale in grado di sintetizzare dati sottorappresentati per affrontare le distorsioni
Secondo il suddetto studio, infine, ‘la ricerca futura deve concentrarsi sullo sviluppo di standard, per l’IA nell’assistenza sanitaria, che consentano trasparenza e condivisione dei dati, preservando allo stesso tempo la privacy dei pazienti’.
Il bias algoritmico
La definizione specifica che riguarda la sofferenza di pregiudizi da parte dell’IA, con notevoli implicazioni per quanto riguarda l’assistenza sanitaria, è quella di “bias algoritmico” ed è stato definito tale da Trishan Panch, medico di base, presidente eletto dell’HSPH Alumni Association e co-fondatore dell’azienda di salute digitale Wellframe, e da Heatyer Mattie, docente di biostatica e co-direttore del programma del Master in Scienze dei dati sanitari.
Entrambi co-direttori del programma Applied Artificial Intelligence for Health Care presso l’Harvard T.H. Chan School of Public Health, hanno definito in un studio pubblicato nel 2019 sul Global Health ‘il pregiudizio algoritmico come l’applicazione di un algoritmo che aggrava le disuguaglianze esistenti in termini di stato socioeconomico, razza, origine etnica, religione, genere, disabilità o orientamento sessuale e amplifica le disuguaglianze nei sistemi sanitari’.
‘Se consideri il bias algoritmico solo come un problema tecnico, genererà soluzioni ingegneristiche: come puoi limitare determinati campi come la razza o il sesso dai dati, ad esempio.’, sottolinea Panch, ‘Ma questo non risolverà davvero il problema da solo. Se il mondo appare in un certo modo, ciò si rifletterà nei dati e quindi nelle decisioni’.
Nel campo della genomica e della genetica, ad esempio, si stima che i caucasici costituiscano circa l’80% dei dati raccolti, e quindi gli studi potrebbero essere più applicabili per quel gruppo che per altri gruppi sottorappresentati, mentre Brian Powers, membro della facoltà di Applied Artificial Intelligence for Health Care ha mostrato in uno studio pubblicato nel 2019 su Science come gli algoritmi comunemente usati da alcuni importanti sistemi sanitari oggi hanno bias razziali’.
‘Probabilmente ci sarà sempre una certa quantità di pregiudizi’, afferma Panch, ‘perché le disuguaglianze che stanno alla base del pregiudizio sono già nella società e influenzano chi ha la possibilità di costruire algoritmi. È richiesta un’azione normativa e la collaborazione tra il settore privato, il governo, il mondo accademico e la società civile’.
Come prevenire i bias nella Health Care
‘Avere tanti occhi e valutazioni sul processo è davvero un buon inizio.’, afferma Mattie, ‘E alla fine potrebbero esserci anche liste di controllo o salvaguardie lungo il percorso. Il pregiudizio può insinuarsi ovunque nel processo, durante la creazione di algoritmi: fin dall’inizio con la progettazione dello studio e la raccolta dei dati, l’immissione e la pulizia dei dati, la scelta di algoritmi e modelli, l’implementazione e la diffusione dei risultati’.
Per combattere i bias algoritmici i team di data science, in base allo studio condotto da Mattie e Panch, dovrebbero avere al loro interno dei professionisti che arrivano da background diversi, con una larghezza di vedute, e non semplicemente dei data scientist che hanno una comprensione tecnica dell’IA.
Per Panch e Mattie i medici dovrebbero essere parte integrante di questi team perché possono fornire una comprensione più approfondita del contesto clinico.
Nell’attesa, poi, che prenda vita un’azione normativa e una collaborazione che veda protagonisti il settore privato, quello pubblico, quello accademico e la società civile, risulta necessario prendere consapevolezza che alcuni gruppi sono svantaggiati nella loro sottorappresentazione, lavorando dunque per proteggerli.
Ridurre i bias algoritmici e sfruttare l’IA
Come riportato sul sito dell’Università di Harvard, che nel suo programma formativo include il programma online Applied Artificial Intelligence for Health Care, ‘oggi più professionisti della salute sono almeno consapevoli dei bias algoritmici. Molte aziende stanno anche adottando misure proattive per promuovere la diversità, l’equità e l’inclusione nei loro team’.
Al momento ci sono due tipi di approcci per contrastare (o almeno provarci) i bias algoritmici nell’ambito dei sistemi sanitari su scala internazionale:
- calibrazione degli incentivi
- la legislazione formale
Nel primo caso ci si riferisce alla possibilità di ricercatori o altri professionisti di dimostrare che l’analisi dei dati è distorta. Questo incoraggerà le società private a cambiare o a guardare ai bias prima che ciò avvenga.
Per quanto riguarda il secondo punto, invece, siamo ancora indietro. La legislazione attuale protegge, infatti, alcune variabili rimuovendo campi che porterebbero a giudizi iniqui, basati su razza, genere, background socioeconomico e disabilità, ma tali fattori sono richiesti in questi algoritmi sanitari, in modo che questi gruppi possano ricevere cure adeguate.
‘La legislazione statunitense attuale’, spiegano dall’Università di Harvard, ‘non ne tiene ancora conto. Inoltre i ricercatori continuano a perfezionare questo processo di sviluppo dell’algoritmo al fine non solo di ottimizzare le prestazioni, ma anche di ridurre al minimo le distorsioni. Idealmente un sistema di controlli e contrappesi aiuterà in ultima analisi a ridurre al minimo gli errori più regolarmente e garantire la sostenibilità dei guadagni di salute nel tempo’.
Senza il lavoro che le aziende stanno portando avanti per la promozione di equità, inclusione e diversità, all’interno dei loro team, afferma infine Panch, ‘è impossibile affrontare i pregiudizi impliciti nelle persone che sviluppano algoritmi e nei processi di generazione dei dati che studiano’.
Lascia il tuo commento