09 Jan, 2026 - 13:12

ChatGPT Health: rischi e opportunità dell’IA nelle cartelle cliniche

ChatGPT Health: rischi e opportunità dell’IA nelle cartelle cliniche

L’annuncio di ChatGPT Health segna un ulteriore passaggio simbolico e concreto nell’evoluzione dell’intelligenza artificiale applicata alla salute.Per la prima volta, agli utenti viene prospettata la possibilità di caricare cartelle cliniche (secondo me molto pericoloso, perché l’utente non sa ciò che fa con questi strumenti, visto il livello di alfabetizzazione), referti ed esami medici per ottenere analisi e suggerimenti personalizzati basati su modelli di IA sviluppati da OpenAI.

Un passaggio che, inevitabilmente, apre un dibattito profondo che va ben oltre la dimensione tecnologica.Punto primo, secondo me l’AI, come è giusto che sia, deve essere gestita e contestualizzata in locale, rispetto a quello che propone ChatGPT Health, perché in questo caso addestriamo un LLM online di proprietà di terze parti, mentre dovremmo addestrare un LLM sanitario nazionale italiano per le nostre esigenze e, soprattutto, non deve essere messo in rete alla portata di tutti, ma deve essere in locale, chiuso al contesto cui è rivolto.Allora sì che possiamo dire che si parla di intelligenza artificiale. Infatti, in Italia il 72% delle aziende ha fallito l’adozione e l’implementazione dell’AI, perché dal CEO in giù non hanno capito cosa sia realmente l’AI.

Infatti l’indice desi non smentisce cio siamo al 25 posto per compressione, gestione e alfabetizzazione sul digitale, inoltre recentemente ocse ha sancito che il 47% degli italiani sono analfabeti funzionali digitali

Ecco perché deve essere ben chiaro che ChatGPT non è assolutamente l’intelligenza artificiale, ma è un front end che ci sta agevolando, molte volte anche con un uso scorretto, in certe condizioni quotidiane. Mettiamocelo in testa: ChatGPT non è l’intelligenza artificiale.

Sul piano delle opportunità, il potenziale è evidente. L’uso dell’IA come strumento di supporto alla comprensione dei dati sanitari può favorire una maggiore consapevolezza del paziente, migliorare l’aderenza alle terapie, aiutare nella lettura di referti complessi e rafforzare quel principio di medicina di popolazione e medicina sociale che mette la persona al centro del percorso di cura.

In sistemi sanitari sotto pressione, specialmente in Italia, dove ogni ASL e ogni ospedale ha il proprio sistema e non esiste una standardizzazione, l’IA può diventare un alleato prezioso per la prevenzione, l’educazione sanitaria e l’intercettazione precoce dei fattori di rischio, soprattutto se integrata in modo responsabile nei percorsi di presa in carico.

Ma è proprio qui che emergono i primi nodi critici. La salute non è un dato neutro: è identità, vulnerabilità, storia personale. Affidare cartelle cliniche a piattaforme di intelligenza artificiale significa interrogarsi seriamente su privacy, sicurezza dei dati, governance e responsabilità.Anche quando i sistemi dichiarano di non sostituire il medico, il rischio di una delega cognitiva implicita è reale, soprattutto in un contesto culturale in cui la tecnologia viene spesso percepita come autorevole per definizione.

C’è poi un aspetto più sottile, ma decisivo: l’IA non comprende, elabora. Non prova empatia, non coglie il contesto umano, sociale e relazionale della malattia.Il pericolo non è l’errore tecnico, ma la progressiva normalizzazione di un rapporto algoritmico con la salute, in cui il dato rischia di prevalere sulla relazione di cura. In altre parole, il problema non è ciò che l’IA può fare, ma ciò che potremmo smettere di fare noi.
Il futuro di ChatGPT Health e di strumenti analoghi dipenderà quindi da una scelta culturale prima ancora che normativa.

Se l’intelligenza artificiale verrà integrata come strumento di supporto, trasparente, regolato e inserito in un ecosistema sanitario guidato da professionisti, potrà rappresentare un’evoluzione positiva. Se invece verrà utilizzata come scorciatoia, come sostituto implicito del medico o come soluzione individuale a problemi collettivi, il rischio è quello di ampliare disuguaglianze, confusione e sfiducia.

La vera domanda, dunque, non è se l’IA debba entrare nella sanità, ma come e con quali limiti. Perché la tecnologia può migliorare la salute solo se resta uno strumento al servizio dell’uomo e non un nuovo intermediario tra la persona e la cura.In un’epoca di sanità digitale, la sfida non è rendere i sistemi più intelligenti e performanti, ma rendere le decisioni più umane. In tutto questo non dimentichiamo, come scrivo e dico dal 2012, che l’altra parte tecnologica si chiama blockchain (quella vera), che sancisce la sicurezza e la certezza di una transazione su una singola informazione, perché oggi dobbiamo stare attenti alla sicurezza delle informazioni, altrimenti si rischia ancora una volta di cavalcare un hype mediatico senza capire cosa stiamo facendo.

 

William Nonnis, 

tecnico per l'innovazione e  digitalizzazione Presidenza del Consiglio.

LEGGI ANCHE