L’intelligenza artificiale generativa è ormai capace di simulare in modo sempre più convincente le risposte degli esseri umani. Una capacità che apre scenari innovativi, ma che rischia anche di “inquinare” i risultati dei sondaggi online utilizzati nella ricerca sociale e in ambito politico.
A lanciare l’allarme sono Folco Panizza della Scuola IMT Alti Studi Lucca, insieme a Yara Kyrychenko e Jon Roozenbeek, in un commento pubblicato sulla rivista Nature. I ricercatori analizzano il fenomeno e propongono alcune possibili contromisure per tutelare l’affidabilità dei dati.
“Gli studi analizzati nel commento dal titolo ‘Gli strumenti di intelligenza artificiale per la compilazione di sondaggi superano le capacità umane” – spiega una nota dell’Imt – suggeriscono che oggi tra il 30 e il 90% delle risposte ai sondaggi online può essere falso o fraudolento. E un 3-7 % di risposte fraudolente è sufficiente a invalidare le conclusioni statistiche di un sondaggio. Ad aggravare la situazione sono arrivati i sistemi di risposta basati sull’IA, che oggi sono in grado di generare risposte fluide, coerenti e sensibili al contesto, spesso superando le capacità di scrittura degli esseri umani”.
Numeri che, se confermati, mettono in discussione la validità statistica di molte rilevazioni. Il problema, spiegano gli autori, non riguarda solo i tradizionali bot automatici, ma sistemi di IA sempre più sofisticati, capaci di produrre testi credibili e difficili da distinguere da quelli scritti da una persona.
“Il punto è – osserva Panizza – che gli strumenti di riconoscimento dell’intelligenza artificiale utilizzati finora per distinguere gli esseri umani dai bot non sono più efficaci. Oggi, quando analizziamo le risposte di un sondaggio, non siamo più in grado di stabilire se chi ha risposto sia una persona o meno e, di conseguenza, tutti i dati raccolti sono potenzialmente contaminati”.
Il rischio, dunque, è una contaminazione sistemica dei dati, con ricadute su studi accademici, analisi di mercato e perfino decisioni politiche basate su rilevazioni distorte.
Per arginare il fenomeno, i ricercatori propongono un cambio di strategia su più livelli. Tra le soluzioni indicate c’è l’analisi dei modelli di risposta e dei metadati comportamentali, come la velocità di digitazione, i tasti premuti o l’eventuale uso del copia-incolla. Indicatori indiretti che potrebbero aiutare a distinguere un comportamento umano da uno artificiale.
“Paradossalmente – si aggiunge – il metodo più efficace potrebbe essere quello di costringere le macchine a fallire”. Un’idea che punta a sfruttare proprio i limiti residui dell’intelligenza artificiale. “Le macchine sono molto meno brave a commettere gli errori tipici degli esseri umani. Se un agente di IA risponde troppo bene, questo stesso fatto può diventare un segnale”, fa notare Panizza.
La conclusione è chiara: ricercatori, piattaforme di sondaggi e finanziatori devono adottare precauzioni mirate per proteggere l’integrità dei dati, in un contesto in cui le capacità dell’intelligenza artificiale continuano a evolversi rapidamente. Un lavoro di aggiornamento costante che, oggi, non è più rinviabile.







