L’intelligenza artificiale non è più una promessa, né un’ipotesi futuristica buona per i convegni. È una realtà che corre più veloce della capacità umana di comprenderla, e soprattutto di controllarla. A dirlo non è un tecnofobo né un complottista da social network, ma uno degli uomini che più di tutti ha contribuito a costruire il mondo digitale in cui viviamo: Bill Gates.
Nel suo ultimo intervento pubblicato su Gates Notes, il fondatore di Microsoft sceglie parole pesanti, volutamente allarmanti. E lo fa partendo da una lezione che, secondo lui, non abbiamo imparato: la pandemia di Covid. «Se ci fossimo preparati adeguatamente, la quantità di sofferenza umana sarebbe stata drasticamente inferiore», scrive. Ma subito dopo sposta l’asticella ancora più in alto, o meglio, ancora più in profondità. Perché oggi, avverte Gates, il pericolo maggiore non è una nuova pandemia naturale. È qualcosa di peggio.
Secondo il co-fondatore di Microsoft, il rischio reale è che «un gruppo non governativo utilizzi strumenti di intelligenza artificiale open source per progettare un’arma bioterroristica». Non si parla di fantascienza, ma di possibilità concrete. Di software già disponibili. Di modelli già esistenti. Di capacità di calcolo che, se usate con intenti criminali, potrebbero generare nuovi agenti patogeni in grado di causare danni su scala globale.
Gates non è solo in questa valutazione. Lo scorso anno, un gruppo di esperti guidato dalla Nuclear Threat Initiative e dalla Munich Security Conference ha messo nero su bianco un timore simile: l’uso combinato di strumenti biologici e intelligenza artificiale potrebbe portare alla creazione di agenti patogeni con rischi di livello pandemico. In altre parole, la tecnologia che oggi promette cure personalizzate e diagnosi rapide potrebbe domani essere sfruttata per l’esatto opposto. Non per salvare vite, ma per toglierle.
È un punto che spaventa proprio perché non arriva da chi l’IA la demonizza a prescindere. Bill Gates è da anni uno dei più convinti sostenitori dell’innovazione tecnologica. È attivo in iniziative filantropiche, in progetti sanitari globali, in programmi di sviluppo. E proprio per questo il suo allarme pesa di più. Non è un rifiuto della tecnologia, è un avvertimento sul suo lato oscuro. Quello che preferiamo non guardare finché non è troppo tardi.
Ma il bioterrorismo è solo una delle due grandi ombre che, secondo Gates, incombono sul prossimo decennio. L’altra riguarda qualcosa di ancora più vicino alla vita quotidiana di milioni di persone: il lavoro. «Le due grandi sfide del prossimo decennio sono l’uso dell’IA da parte di malintenzionati e le ricadute sul mercato del lavoro», scrive. «Entrambi rappresentano rischi reali da considerare».
Qui il discorso diventa ancora più scomodo. Perché Gates non si limita a dire che l’intelligenza artificiale cambierà il lavoro. Dice apertamente che lo sostituirà. Nella maggior parte delle attività. Un’affermazione che, letta da un miliardario che ha costruito il suo impero proprio sull’automazione e sul software, suona quasi come una sentenza. «Dobbiamo abituarci a tali cambiamenti», afferma. Come se fosse una questione di adattamento psicologico, più che di sopravvivenza economica.
Secondo Gates, il 2026 sarà l’anno chiave. Un periodo di transizione in cui l’umanità dovrebbe “prepararsi” a un mondo in cui l’IA svolgerà gran parte delle funzioni oggi affidate agli esseri umani. Riduzione della settimana lavorativa, ridefinizione delle professioni, persino la scelta consapevole di non usare l’intelligenza artificiale in alcuni ambiti. Tutto viene presentato come un processo razionale, quasi ordinato. Ma la realtà, per milioni di lavoratori, rischia di essere molto meno elegante.
Perché mentre si parla di futuro, di adattamento e di nuove opportunità, resta una domanda sospesa nell’aria: chi paga il prezzo di questa transizione? Chi perde il lavoro mentre altri ottimizzano i profitti? Chi resta indietro mentre l’IA corre avanti? Gates invita a “prepararsi”, ma non spiega davvero come. Né soprattutto come dirlo a chi si troverà improvvisamente inutile in un sistema che non ha più bisogno delle sue competenze.
Il paradosso è tutto qui. L’intelligenza artificiale viene descritta come uno strumento potentissimo, capace di migliorare la vita umana, ma allo stesso tempo come una forza che può destabilizzare società intere. Può curare, ma può anche uccidere. Può creare ricchezza, ma può anche distruggere lavoro. Può rendere il mondo più efficiente, ma anche più diseguale. E in mezzo, come spesso accade, c’è una governance che arriva sempre dopo.
Quando Gates parla di “consapevolezza del modo in cui questa tecnologia viene sviluppata, controllata e implementata”, il sottotesto è evidente: oggi quella consapevolezza non c’è. O è insufficiente. L’IA cresce in un vuoto normativo, spinta da interessi economici enormi e da una competizione globale che non ammette rallentamenti. Fermarsi a riflettere, in questo scenario, sembra quasi un lusso.
Eppure il messaggio di Gates, al netto delle polemiche e delle inevitabili accuse di ipocrisia, è chiaro: non possiamo permetterci di arrivare impreparati un’altra volta. Non su una pandemia. Non su una crisi occupazionale di massa. Non su un uso criminale della tecnologia che noi stessi abbiamo messo in circolazione.
Il problema è che l’allarme, per essere utile, dovrebbe tradursi in azioni concrete. Regole, controlli, investimenti pubblici, protezioni sociali. Altrimenti resta un monito pronunciato dall’alto, da chi il futuro lo può osservare con una tranquillità che altri non hanno. L’intelligenza artificiale, dice Gates, cambierà tutto. La vera domanda è se saremo pronti a gestire il cambiamento o se, ancora una volta, ci limiteremo a subirlo. Quando sarà già troppo tardi.







