L’intelligenza artificiale (IA) sta rivoluzionando molti settori, tra cui anche la medicina. Ma un recente studio rivela un lato oscuro di questa innovazione: gli strumenti di IA medica – e non solo – potrebbero fornire trattamenti peggiori per le donne e le minoranze. Come è possibile?
La risposta risiede nei dati utilizzati per addestrare questi modelli: storicamente, gli studi clinici si sono infatti concentrati principalmente sugli uomini bianchi, trascurando il resto della popolazione che non presenta queste caratteristiche. Questo bias si riflette ora anche negli algoritmi di IA, che replicano e amplificano le disuguaglianze preesistenti.
Un report del Financial Times, basato su una ricerca del MIT (Massachusetts Institute of Technology), dimostra che i modelli linguistici di grandi dimensioni (LLM) come GPT-4 di OpenAI e Llama 3 di Meta tendono a “ridurre erroneamente le cure per le pazienti donne”. Le donne vengono più spesso indirizzate all’autogestione a casa, ricevendo meno assistenza in ambito clinico rispetto agli uomini.
E il problema non si limita ai modelli generici: anche Palmyra-Med, un LLM specificamente progettato per l’assistenza sanitaria, mostra simili pregiudizi. Uno studio della London School of Economics su Gemma, l’LLM di Google, ha rilevato che il modello tende a “minimizzare i bisogni delle donne”.

Non si tratta solo di genere, ma anche di etnia. Ricerche precedenti hanno dimostrato che i modelli di IA mostrano meno empatia verso le persone di colore con problemi di salute mentale rispetto ai bianchi. Un articolo pubblicato su The Lancet ha evidenziato come GPT-4 tenda a “stereotipare regolarmente determinate razze, etnie e generi”, cosa che influenza inevitabilmente diagnosi e relative raccomandazioni.
Questo scenario è allarmante, considerando la crescente integrazione dell’IA negli ospedali e nelle strutture mediche. Aziende come Google, Meta e OpenAI stanno investendo in questo settore in modo massiccio, ma il rischio di disinformazione e discriminazione è concreto.
Cosa possiamo fare? È fondamentale aumentare la consapevolezza su questi bias e promuovere la ricerca su dataset più inclusivi e rappresentativi. Inoltre, medici e operatori sanitari devono essere formati per riconoscere e contrastare le possibili distorsioni operate dagli strumenti di IA. Solo così potremo garantire che l’IA in medicina sia uno strumento di cura per tutti, senza discriminazioni.
Il potenziale dell’IA nel campo della medicina è enorme, ma è assolutamente necessario affrontare al più presto queste criticità per evitare che la tecnologia, anziché curare, amplifichi le disuguaglianze.



