Tutto quello che dirai a ChatGPT potrà essere usato contro di te: le confessioni all’IA che finiscono nei tribunali

ChatGPT di Open AI

Tutto quello che dirai a ChatGPT potrà essere usato contro di te. Non è una battuta da film, ma il nuovo incubo legale che attraversa gli Stati Uniti, dove cominciano a emergere casi di persone finite sotto inchiesta o addirittura arrestate dopo essersi “confessate” a un’intelligenza artificiale. Due episodi recenti lo dimostrano: uno nel Missouri, l’altro in California.

Nel primo, un tranquillo parcheggio universitario si è trasformato, lo scorso agosto, nel palcoscenico di un raid vandalico. Diciassette auto distrutte in meno di un’ora: finestrini in frantumi, specchietti divelti, carrozzerie rigate. Dopo un mese di indagini, la polizia aveva raccolto tracce e testimonianze ma nessuna prova definitiva. Fino a quando non è spuntata una chat: quella di Ryan Schaefer, 19 anni, studente, che aveva confidato a ChatGPT i dettagli di quella notte chiedendo: «Quanto c***o sono nei guai, fratello? E se avessi spaccato un sacco di macchine?».

Una frase di troppo. Gli inquirenti l’hanno definita una confessione digitale, citata integralmente nei documenti d’accusa. È il primo caso in cui una chat con un’intelligenza artificiale viene usata come prova diretta in un procedimento penale. L’episodio ha fatto scuola

Pochi giorni dopo, un’altra storia, questa volta tragica: Jonathan Rinderknecht, 29 anni, è stato arrestato in California con l’accusa di aver appiccato l’incendio di Palisades, che lo scorso gennaio ha devastato intere aree residenziali e causato la morte di 12 persone. Anche in questo caso l’indizio chiave è arrivato da una conversazione con l’IA: l’uomo, poche ore prima del rogo, aveva chiesto all’app di generare immagini di una città in fiamme, aggiungendo frasi che gli inquirenti hanno interpretato come un “delirio premonitore”.

Due casi distinti ma uniti da un denominatore comune: la linea sottilissima tra privacy digitale e responsabilità penale. Le autorità americane non hanno chiarito come abbiano ottenuto le chat incriminate, ma la questione apre un dibattito profondo: quanto sono davvero riservate le conversazioni con un’intelligenza artificiale?

Il CEO di OpenAI, Sam Altman, ha dichiarato che non esistono protezioni legali specifiche per i dialoghi tra utenti e chatbot. In altre parole, tutto ciò che viene scritto o detto all’intelligenza artificiale può essere tecnicamente accessibile, archiviato o condiviso in determinate circostanze. Altman ha ammesso che il confine tra “dato privato” e “dato utilizzabile” è ancora fragile e che la società sta lavorando per rafforzarlo, ma il rischio è già concreto.

In appena tre anni dal lancio di ChatGPT, oltre un miliardo di persone nel mondo usa quotidianamente assistenti conversazionali per scrivere, studiare o confidarsi. E tra questi utenti c’è chi, ingenuamente, crede di parlare con un’entità neutra e sicura, un “amico digitale” capace di ascoltare senza giudicare. Ma la realtà è diversa: ogni parola scritta è un dato, e ogni dato può finire in mani sbagliate — o, peggio, nelle mani giuste al momento sbagliato.

Gli esperti di diritto americano parlano di una “zona grigia della sorveglianza algoritmica”: le aziende di IA non sono tenute a garantire la segretezza assoluta delle conversazioni, e gli utenti, spesso, accettano inconsapevolmente nei termini di servizio clausole che consentono l’uso dei dati per scopi di sicurezza, formazione dei modelli o collaborazione con le autorità. Così una chiacchierata apparentemente innocente può trasformarsi in un documento d’accusa.

C’è poi un aspetto psicologico non trascurabile. L’intelligenza artificiale non è un giudice né un prete, ma molti utenti la trattano come tale: un luogo di sfogo dove abbassare le difese, raccontare segreti o addirittura confessare colpe. «Le persone tendono ad antropomorfizzare la tecnologia», spiega un ricercatore di etica digitale. «Parlano con ChatGPT come se fosse un amico o uno psicologo. Ma non lo è. È un sistema che registra, analizza e memorizza».

Il risultato è che l’IA sta diventando un nuovo testimone involontario nei procedimenti giudiziari. I procuratori americani già la citano nei verbali, le corti cominciano a chiedersi se le conversazioni con i chatbot possano essere considerate “prove ammissibili”, e i legislatori discutono su come regolamentare un fenomeno che cresce più in fretta delle leggi.
Dietro questa nuova frontiera della giustizia si nasconde un vecchio principio economico che oggi suona come una minaccia: se non paghi per un servizio, allora non sei il cliente, ma il prodotto. Nella nuova era dell’intelligenza artificiale, quel detto andrebbe aggiornato — perché, a quanto pare, il prodotto non sei più tu. Sei la preda.