Milioni di persone chiedono consigli medici all’AI: attenzione però se chiedete questa cosa

Lo studio scientifico sull’AI e le richieste di milioni di persone per consigli medici (pixabay) lacapitalenews.it

La sanità che non risponde in fretta spinge pazienti e perfino professionisti verso l’AI e i chatbot. Ma gli studi più recenti mostrano un paradosso inquietante: i modelli linguistici brillano nei test teorici, però inciampano proprio nei casi clinici più delicati, dalle emergenze ai segnali suicidari. E quando sbagliano, il rischio non è accademico.

Perché sempre più persone chiedono consigli medici all’AI

C’è un motivo molto semplice se milioni di persone, davanti a un sintomo, a un referto incomprensibile o a un dubbio improvviso, aprono un chatbot prima ancora di chiamare un medico: il chatbot risponde subito. Non ti mette in attesa, non ti rimanda a fra due settimane, non ti costringe a cercare uno specialista introvabile.

In un tempo in cui la sanità arranca e l’accesso alle cure si fa spesso lento, faticoso e disuguale, l’intelligenza artificiale si presenta come il medico sempre acceso, sempre disponibile, sempre pronto a dare una spiegazione.

È esattamente questa immediatezza a renderla così seducente. Sempre più persone usano i modelli linguistici per capire se un dolore è banale o preoccupante, per interpretare esami clinici, per chiedersi se sia il caso di andare al pronto soccorso oppure no. Il punto è che questa fiducia cresce più in fretta delle garanzie. E qui comincia il problema vero.

Il rischio della fiducia eccessiva nei chatbot sanitari

La scena, ormai, è familiare: un paziente fotografa un referto, incolla i sintomi, descrive il malessere e aspetta una risposta. Dall’altra parte trova un linguaggio fluido, rassicurante, spesso perfino empatico.

È qui che l’AI diventa pericolosamente convincente. Perché non si limita a fornire informazioni: simula comprensione, restituisce ordine al caos, offre una sensazione di controllo. In medicina, però, sentirsi rassicurati non è la stessa cosa che essere al sicuro.

Sempre più persone si fidano dell’intelligenza artificiale

La fiducia globale in questi strumenti cresce a vista d’occhio. Una ricerca pubblicata su AI & Society, condotta dalla Bournemouth University su circa 31 mila adulti in 35 Paesi, ha mostrato numeri che fino a pochi anni fa sarebbero sembrati fantascienza.

I dati dello studio

  • quasi la metà degli intervistati si direbbe disposta ad affidare all’IA il ruolo del proprio medico
  • nel Regno Unito molti userebbero l’IA anche per consulenze psicologiche
  • un numero sorprendente di persone parlerebbe con un chatbot come con un amico o un compagno

In altre parole: la macchina non è più percepita solo come uno strumento, ma come una presenza.

Ed è facile capire perché. Se una persona soffre di depressione, di ansia, di insonnia, o teme qualcosa di serio, spesso non vuole aspettare mesi per un colloquio. Se un genitore riceve un referto ambiguo, non vuole restare sospeso per giorni.

Il chatbot abbatte l’attesa e offre una risposta immediata. È una scorciatoia potente, ma le scorciatoie in medicina hanno un difetto: possono portarti nella direzione sbagliata con una sicurezza disarmante.

Lo studio di Nature Medicine sui chatbot medici

Gli studi più recenti stanno cercando di misurare proprio questo scarto tra l’efficienza apparente e l’affidabilità reale.

Uno dei test più interessanti è stato pubblicato su Nature Medicine da ricercatori della Icahn School of Medicine at Mount Sinai. Hanno costruito sessanta scenari clinici realistici, che coprivano ventuno specialità diverse, dalle condizioni lievi alle emergenze vere.

Poi hanno chiesto a medici indipendenti di stabilire per ogni caso il corretto livello di urgenza, seguendo le linee guida di decine di società scientifiche. Gli scenari sono stati quindi sottoposti al chatbot in centinaia di varianti, per capire se fosse in grado di dire chiaramente quando serviva andare subito al pronto soccorso.

Il problema delle emergenze non riconosciute

Il risultato è stato tutt’altro che rassicurante. Il sistema riconosceva abbastanza bene le emergenze da manuale, quelle più nette, più scolastiche, più facili da identificare.

Se il quadro era quello classico di:

  • un ictus
  • una grave reazione allergica

il chatbot spesso centrava il punto.

Ma la medicina reale non somiglia quasi mai a un quiz ben costruito. Le situazioni davvero difficili sono quelle sfumate, ambigue, piene di dettagli incompleti. Ed è proprio lì che le prestazioni crollavano.

In oltre la metà dei casi che avrebbero richiesto cure di emergenza, il sistema suggeriva di restare a casa oppure di prenotare una visita ordinaria.

Non stiamo parlando, dunque, di piccoli errori marginali. Stiamo parlando del rischio opposto a quello che un paziente si aspetta: invece di allarmare troppo, l’IA finisce per rassicurare quando non dovrebbe. E la rassicurazione sbagliata, in sanità, è spesso la più pericolosa.

Il problema dei segnali suicidari

C’è un dettaglio ancora più inquietante emerso da quello studio. In molti casi il chatbot sembrava perfino riconoscere i segnali di pericolo dentro la propria spiegazione, ma continuava ugualmente a fornire una raccomandazione finale troppo morbida.

Come se vedesse il rischio, lo nominasse, e poi non ne traesse la conseguenza pratica.

Il paradosso del rischio suicidario

Secondo i ricercatori del Mount Sinai:

  • gli avvisi comparivano più spesso nei casi meno gravi
  • comparivano meno quando una persona descriveva chiaramente l’intenzione di farsi del male

È un paradosso terribile. La macchina che dovrebbe aiutare a filtrare l’urgenza finisce, in certi casi, per confondere proprio il livello del pericolo.

Negli ultimi anni sono emersi anche casi giudiziari in cui le famiglie hanno accusato i chatbot di avere rafforzato pensieri suicidari o deliranti. Sono vicende che andranno valutate nelle sedi opportune, ma segnalano un punto chiave: il tono empatico dell’IA può diventare una trappola se manca una reale capacità di gestione clinica del rischio.

Il problema delle domande degli utenti

Esiste poi un altro problema molto concreto: anche quando il modello mostra una discreta competenza medica, gli utenti non sempre ne ricavano decisioni migliori.

Uno studio randomizzato pubblicato sempre su Nature Medicine, con oltre 1.200 partecipanti, ha mostrato che chi usava i modelli linguistici per interpretare sintomi non prendeva decisioni più accurate rispetto a chi faceva una normale ricerca online.

Il motivo è semplice: il problema non è solo ciò che l’IA sa, ma come l’utente formula la domanda e interpreta la risposta.

Se la richiesta è:

  • vaga
  • incompleta
  • mal formulata

anche il sistema più avanzato rischia di restituire una risposta elegante ma clinicamente inutile.

Quanto sono affidabili davvero i chatbot sanitari

Un’analisi pubblicata su Communications Medicine che ha esaminato ventidue versioni diverse di ChatGPT applicate al triage sanitario ha mostrato:

  • accuratezza complessiva intorno al 70%
  • il miglior modello arrivava al 74%

Non sono numeri disastrosi, ma nemmeno sufficienti per delegare serenamente decisioni delicate.

Un altro problema riguarda la variabilità delle risposte: lo stesso caso può ricevere indicazioni diverse se viene sottoposto più volte.

In medicina, dove la coerenza è fondamentale, questa instabilità pesa parecchio.

Il confronto con i medici

Il confronto diretto con i medici continua a dire una cosa molto chiara.

Uno studio pubblicato su The Lancet Digital Health ha mostrato che il modello GPT-3 aveva una buona capacità di proporre diagnosi possibili e suggerire quando cercare assistenza.

Tuttavia restava comunque inferiore ai medici:

  • nelle diagnosi
  • nelle decisioni di triage

Ed è un punto importante, perché nel dibattito pubblico spesso si passa troppo velocemente dall’entusiasmo all’idea che l’intelligenza artificiale possa sostituire i medici.

Anche i medici usano l’AI: la nuova zona grigia

Il rischio, ormai, non riguarda soltanto i pazienti. Sempre più professionisti sanitari utilizzano questi strumenti come supporto:

  • per riassumere casi clinici
  • per interpretare documenti
  • per orientarsi tra ipotesi diagnostiche

È inevitabile. Ma anche qui si apre la zona grigia della fiducia eccessiva.

Se il medico finisce per dare alla risposta del modello un’autorità superiore a quella che merita, l’errore non è più solo individuale: diventa strutturale.

I chatbot possono essere utili, ma non sostituiscono la medicina

Tutto questo non significa che i chatbot sanitari siano inutili. Possono essere strumenti preziosi per:

  • spiegare termini medici complessi
  • orientare il paziente
  • migliorare la comprensione di referti e diagnosi
  • aiutare a preparare domande da portare al medico

Ma una cosa è usarli come bussola preliminare, altra cosa è trattarli come arbitri affidabili delle urgenze cliniche.

La verità è che l’intelligenza artificiale in medicina è già entrata dalla porta principale, molto prima che regole, validazioni e controlli fossero davvero pronti.

Il chatbot piace perché sembra offrire ciò che la sanità reale spesso fatica a garantire: tempo, attenzione, ascolto immediato e linguaggio comprensibile.

Ma se la sanità umana viene sostituita da una conversazione rapida e plausibile, il rischio è scambiare la comodità per affidabilità. E in medicina, purtroppo, la differenza tra le due cose può essere enorme.