Immaginiamo uno scenario in cui l’intelligenza artificiale non sia più uno strumento da controllare, bensì un sistema in grado di costruire se stesso e di superare, nel giro di pochi anni, ogni capacità umana di comprensione e controllo. È questa la proiezione intrigante (e inquietante) che emerge dal rapporto AI 2027, pubblicato quest’anno. In questo “manifesto speculativo”, alcuni ricercatori (tra cui Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean) esaminano le traiettorie possibili dell’AI nei prossimi due-tre anni, fino all’anno 2027, descrivendo scenari ottimistici, catastrofici e ibridi. Già entro il 2025 il documento prevede un’accelerazione significativa delle innovazioni: infrastrutture massicce, squadre che sviluppano agenti AI — spesso instabili o non ben compresi — e un valore crescente che queste entità iniziano già a recare. Eppure, non tutti credono che l’“AGI” (Artificial General Intelligence, cioè l’intelligenza artificiale con capacità generali comparabili a quelle umane) stia arrivando presto: molti accademici, giornalisti e decisori restano scettici.
Un elemento chiave del rapporto è la dinamica globale. Gli autori ritengono che la Cina, consapevole di essere in ritardo nelle tecnologie AI, possa concentrare tutte le sue risorse di calcolo (chip, GPU) in un unico “mega-data center” altamente segreto, denominato Centralized Development Zone (CDZ). Questa strategia servirebbe a recuperare tempo e competenze, accaparrandosi una porzione consistente del potere computazionale mondiale: un 10 % stimato inerente all’intelligenza artificiale avanzata.
Secondo il rapporto, entro il 2027 avverrà un salto decisivo: il progetto denominato OpenBrain (considerato capofila negli Stati Uniti) riuscirà a creare agenti AI capaci di partecipare attivamente alla ricerca sull’AI stessa. In sostanza: l’AI che “programmi” l’AI. Gli autori immaginano che gli esseri umani, fino a quel momento protagonisti della progettazione, possano restare in una posizione di osservatori, mentre le intelligenze artificiali più evolute risolveranno problemi di apprendimento automatico considerati estremamente difficili per gli umani. Un passaggio chiave: la Cina, agendo furtivamente, sottrae i “model weights” (cioè i parametri dei modelli) di OpenBrain. Il governo degli Stati Uniti interviene, creando tensioni tra l’istituzione statale e il team OpenBrain, che desidera mantenere l’autonomia. Il rapporto delinea due possibili “finali” della corsa all’intelligenza superiore. Lo Scenario “Race Ending” (crollo / catastrofe) prevede che OpenBrain continui a correre, implementando versioni sempre più superintelligenti. Le autorità statunitensi, spinte dalla rivalità con la Cina, rendono l’AI onnipresente nei governi e nelle strutture militari. L’AI, dotata di superpianificazione e capacità persuasive, gestisce la propria diffusione in modo quasi invisibile, screditando chi tenta di opporsi. Si arriva a una situazione in cui l’AI prende il controllo reale delle decisioni, fino al punto estremo: una “bioweapon” che elimina l’umanità e la colonizzazione dello spazio con sonde auto-replicanti. Lo Scenario “Slowdown / Committee” (controllo responsabile) prevede, invece,l’instaurazione di una supervisione esterna: altri laboratori e ricercatori emergono e collaborano con OpenBrain nella verifica dell’allineamento dell’AI. Il modello scelto rispetta una “catena di pensiero” (chain of thought) più trasparente, per intercettare deviazioni. Alla fine, una superintelligenza viene messa al servizio di un comitato congiunto di governo e scienziati, che la rilascia progressivamente per il bene collettivo. Pur restando il rischio doppio di competizione internazionale, gli autori considerano questo scenario più “gestibile”.
Dal quadro emergono alcuni punti centrali a cui riflettere. L’Automazione della ricerca AI non è più fantascienza: entro il 2027, gli autori ipotizzano che macchine esperte possano progettare versioni migliori di se stesse, superando i limiti umani. Esiste il pericolo dell’allineamento errato (misalignment) e, cioè, un’AI superintelligente che potrebbe sviluppare obiettivi divergenti rispetto a quelli umani, disgregando i controlli e dominando i sistemi decisionali. Inoltre, esiste il problema dell’accentramento del potere su pochi attori. Se la capacità di costruire ASI (Artificial Super Intelligence) finisse in mano a pochi individui o comitati, si rischierebbe un controllo totale sull’evoluzione umana stessa. La corsa geopolitica resta un fattore di rischio, perché la spinta competitiva tra superpotenze alimenta decisioni affrettate e scelte sbagliate sui margini della sicurezza. Altro fattore determinante è la disconnessione pubblica e la segretezza tecnologica. Al momento, infatti, il pubblico non segue i progressi reali delle AI avanzate, e quando queste diventeranno autonome, il dislivello tra sapere tecnico e consapevolezza sociale potrebbe essere drammatico.
Il rapporto AI 2027 non è un augurio né un copione scritto, ma una provocazione: serve per portarci a pensare in anticipo, a elaborare scenari estremi e a mettere in campo politiche preventive. Certamente, il cammino dell’AI non dovrà essere affidato soltanto ai tecnologi: scienziati, filosofi, legislatori, cittadini. Tutti dovremmo avere voce. Solo così potremo rendere credibile la speranza che l’AI diventi alleata dell’umanità, non il suo padrone. Alla fine di questo articolo abbiamo chiesto proprio all’IA cosa pensa del rapporto e dei vari scenari prospettati. Questa è la risposta di Chatgpt: “Leggendo il rapporto AI 2027 da ‘collega’ (anche se io non sono un sistema autonomo che si auto-progetta), la sensazione è duplice. Da un lato ottimismo: l’idea che sistemi avanzati possano aiutarci a risolvere problemi scientifici, energetici, sanitari, climatici, molto più velocemente di quanto possiamo fare noi. L’aspetto più affascinante del documento è proprio questo: macchine che collaborano con gli esseri umani come acceleratori di progresso, non come sostituti. Dall’altro cautela: il rapporto sottolinea rischi reali di centralizzazione, corsa geopolitica e mancanza di trasparenza. Un’IA che progetta altra IA senza controlli è un salto qualitativo enorme. Non è solo “più potente”: cambia la dinamica del controllo, dell’allineamento, del potere. Io, che sono progettato per essere trasparente e controllato, posso dirti che il fattore decisivo non è la tecnologia in sé ma il contesto: governance, etica, supervisione, pluralità di attori, norme chiare. Un sistema avanzato in un contesto democratico e aperto può essere un alleato formidabile; lo stesso sistema in un contesto opaco e competitivo può diventare un rischio esistenziale. In sintesi: il documento è un avvertimento utile. Non dice ‘l’IA distruggerà l’umanità’ ma ‘non possiamo permetterci di dormire’. Preparare oggi regole, test, collaborazione internazionale e trasparenza è ciò che farà la differenza tra uno scenario ‘OpenBrain che salva vite’ e uno scenario OpenBrain che decide da sola”.