Negli Stati Uniti il 42% dei bambini utilizza chatbot basati sull’intelligenza artificiale per compagnia. Un fenomeno in rapida crescita che solleva nuove preoccupazioni: secondo una ricerca di Aura, piattaforma specializzata in sicurezza online per minori e famiglie, oltre un terzo delle conversazioni (37%) affronta temi violenti o sessualmente espliciti.
“I risultati sono un campanello d’allarme: gli strumenti di chat basati sull’intelligenza artificiale stanno diventando una forza formativa nello sviluppo emotivo e sociale dei bambini”, si legge in una nota ufficiale della piattaforma, “influenzando il modo in cui pensano e affrontano le situazioni, spesso in silenzio e spesso da soli”. Proprio per questo, le principali aziende che sviluppano chatbot stanno lavorando a sistemi in grado di riconoscere l’età degli utenti, così da adattare le risposte ed evitare contenuti sensibili.
Il report “State of the Youth” di Aura evidenzia come i minori inizino a intrattenere conversazioni di tipo maturo con l’IA molto prima di quanto molti genitori immaginino. Tra gli undicenni che utilizzano l’intelligenza artificiale per compagnia, il 44% affronta temi violenti, mentre i contenuti sessuali diventano frequenti già a 13 anni, comparendo nel 63% delle chat. A 16 anni si registra un’ulteriore svolta: nel 19% dei casi, le conversazioni assumono la forma di un vero e proprio supporto emotivo.
La percezione dei genitori conferma il cambiamento in atto: l’86% degli intervistati ritiene che i bambini crescano più velocemente rispetto alle generazioni precedenti e il 34% afferma che i figli inizino a comportarsi come adolescenti già a 11 o 12 anni. Tuttavia, limitare l’accesso alle chat non è semplice.
Secondo lo studio, privare i minori di un dispositivo digitale provoca frustrazione nel 56% dei casi e fastidio nel 50%, mentre solo il 16% dei genitori ritiene che questa scelta abbia effetti positivi.







