Il mondo dell’intelligenza artificiale entra ufficialmente nelle corsie degli ospedali e nelle nostre case. Poche ore fa, OpenAI ha svelato ChatGPT Health, un’estensione del celebre chatbot progettata esclusivamente per la gestione del benessere personale. Non si tratta più di semplici risposte a curiosità mediche, spesso imprecise nel passato, ma di un sistema avanzato capace di dialogare con cartelle cliniche, dispositivi indossabili (come l’Apple Watch) e applicazioni per la nutrizione. L’obiettivo è trasformare l’AI in un consulente capace di interpretare analisi del sangue, organizzare appuntamenti medici e persino suggerire liste della spesa basate sulla propria dieta.
La gestione di informazioni così delicate ha subito sollevato dubbi sulla privacy. OpenAI ha risposto isolando completamente le conversazioni della sezione “Health” dal resto del sistema: questi dati godono di una crittografia speciale e non verranno mai utilizzati per addestrare i futuri modelli di intelligenza artificiale. Nonostante queste rassicurazioni, il servizio non è ancora disponibile nell’Unione Europea e nel Regno Unito, dove le rigide normative sulla protezione dei dati bloccano, per ora, l’integrazione delle cartelle cliniche. Negli Stati Uniti, invece, il software gode di un approccio più permissivo da parte delle autorità, a patto che non si spacci per un vero e proprio “medico”.
Lo sviluppo di questo strumento ha richiesto oltre due anni di test e il supporto di centinaia di medici internazionali. OpenAI sta investendo cifre colossali nel settore, assumendo figure di spicco della sanità digitale e collaborando con fornitori di cure primarie in contesti diversi, come la Penda Health in Kenya. L’ultimo modello, GPT-5, è stato istruito specificamente per segnalare proattivamente eventuali anomalie nei parametri vitali dell’utente, agendo quasi come un sistema di allerta precoce.

Sebbene il potenziale sia enorme, si stima che ogni giorno 40 milioni di persone cerchino già consigli medici su ChatGPT, la strada non è priva di ostacoli. In passato, alcuni errori dell’AI hanno portato a conseguenze gravi, specialmente nell’ambito della salute mentale. Per questo motivo, OpenAI sta lavorando a un manifesto politico per regolamentare l’uso dell’intelligenza artificiale sanitaria. Il commissario della FDA ha chiarito che, finché l’AI si limiterà a fornire informazioni senza emettere diagnosi ufficiali, la regolamentazione sarà flessibile, ma la responsabilità sulla correttezza dei suggerimenti rimane un nodo cruciale ancora da sciogliere.
Il lancio di ChatGPT Health segna l’inizio di un’era in cui il nostro smartphone potrebbe conoscere la nostra salute meglio di noi stessi. Resta da vedere se questa tecnologia diventerà un supporto indispensabile o se i rischi legati a diagnosi errate supereranno i benefici di una gestione così automatizzata della vita.



