Close Menu
  • Ambiente
    • Animali
  • Attualità
  • Cultura
    • Misteri
    • Storia
  • Lifestyle
    • Bellezza
    • Cibo
    • Moda
    • Sesso
    • Viaggi
  • Spettacolo
  • Sport
  • Web
CultWeb.it
  • Ambiente
    • Animali
  • Attualità
  • Cultura
    • Misteri
    • Storia
  • Lifestyle
    • Bellezza
    • Cibo
    • Moda
    • Sesso
    • Viaggi
  • Spettacolo
  • Sport
  • Web
CultWeb.it
Home » Innovazione » Scienza » Il lato oscuro dell’IA in medicina: perché potrebbe curare peggio donne e minoranze?

Il lato oscuro dell’IA in medicina: perché potrebbe curare peggio donne e minoranze?

Uno studio rivela disparità gravi circa l'applicazione dell'Intelligenza artificiale in ambito medico. Ecco tutti i dettagli.
Gabriella DabbeneDi Gabriella Dabbene22 Settembre 2025
Facebook WhatsApp Twitter Telegram
Una donna riceve una visita medica
Una donna riceve una visita medica (fonte: Freepik)
CONDIVIDI
Facebook WhatsApp Telegram Twitter Email

L’intelligenza artificiale (IA) sta rivoluzionando molti settori, tra cui anche la medicina. Ma un recente studio rivela un lato oscuro di questa innovazione: gli strumenti di IA medica – e non solo – potrebbero fornire trattamenti peggiori per le donne e le minoranze. Come è possibile?

La risposta risiede nei dati utilizzati per addestrare questi modelli: storicamente, gli studi clinici si sono infatti concentrati principalmente sugli uomini bianchi, trascurando il resto della popolazione che non presenta queste caratteristiche. Questo bias si riflette ora anche negli algoritmi di IA, che replicano e amplificano le disuguaglianze preesistenti.

Un report del Financial Times, basato su una ricerca del MIT (Massachusetts Institute of Technology), dimostra che i modelli linguistici di grandi dimensioni (LLM) come GPT-4 di OpenAI e Llama 3 di Meta tendono a “ridurre erroneamente le cure per le pazienti donne”. Le donne vengono più spesso indirizzate all’autogestione a casa, ricevendo meno assistenza in ambito clinico rispetto agli uomini.

E il problema non si limita ai modelli generici: anche Palmyra-Med, un LLM specificamente progettato per l’assistenza sanitaria, mostra simili pregiudizi. Uno studio della London School of Economics su Gemma, l’LLM di Google, ha rilevato che il modello tende a “minimizzare i bisogni delle donne”.

La maggioranza degli studi clinici si concentra sui pazienti bianchi di sesso maschile
La maggioranza degli studi clinici si concentra sui pazienti bianchi di sesso maschile (fonte: Freepik)

Non si tratta solo di genere, ma anche di etnia. Ricerche precedenti hanno dimostrato che i modelli di IA mostrano meno empatia verso le persone di colore con problemi di salute mentale rispetto ai bianchi. Un articolo pubblicato su The Lancet ha evidenziato come GPT-4 tenda a “stereotipare regolarmente determinate razze, etnie e generi”, cosa che influenza inevitabilmente diagnosi e relative raccomandazioni.

Questo scenario è allarmante, considerando la crescente integrazione dell’IA negli ospedali e nelle strutture mediche. Aziende come Google, Meta e OpenAI stanno investendo in questo settore in modo massiccio, ma il rischio di disinformazione e discriminazione è concreto.

Cosa possiamo fare? È fondamentale aumentare la consapevolezza su questi bias e promuovere la ricerca su dataset più inclusivi e rappresentativi. Inoltre, medici e operatori sanitari devono essere formati per riconoscere e contrastare le possibili distorsioni operate dagli strumenti di IA. Solo così potremo garantire che l’IA in medicina sia uno strumento di cura per tutti, senza discriminazioni.

Il potenziale dell’IA nel campo della medicina è enorme, ma è assolutamente necessario affrontare al più presto queste criticità per evitare che la tecnologia, anziché curare, amplifichi le disuguaglianze.

Condividi. Facebook WhatsApp Twitter Telegram Email

Potrebbero interessarti anche

Mappa Bermuda

Dimenticatevi il triangolo: il vero mistero delle Bermuda è nascosto 20 km sotto il mare

15 Dicembre 2025
un'immagine di Marte

Marte il segreto incredibile nascosto sotto la superficie: ecco cosa ha fotografato il rover Curiosity della NASA

15 Dicembre 2025
Dei fazzoletti di carta e una bevanda calda

Influenza 2025, contagiosità già 48 ore prima dei sintomi. Quando chiamare il medico e quanto è importante il vaccino

15 Dicembre 2025
Facebook X (Twitter) Instagram
  • Home
  • Chi siamo
  • Staff e redazione
  • Contatti
  • Disclaimer
  • Cookie Policy
  • Privacy Policy
© 2025 CultWeb.it proprietà di Digital Dreams s.r.l. - Partita IVA: 11885930963 - Sede legale: Via Alberico Albricci 8, 20122 Milano Italy - [email protected] | Foto Credits: DepositPhotos

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001

Digita qui sopra e premi Enter per cercare. Premi Esc per annullare.