Un gruppo ridotto di esseri umani sta giocando col fuoco e guidando l’involuzione.
di Antonio Amorosi – www.affaritaliani.it – Non esistono prioritĂ oltre fermare l’evoluzione dell’Intelligenza Artificiale. Presto le previsioni di Goldman Sachs, una delle piĂą grandi banche d’affari del mondo, potrebbero far sorridere. “Visualizza un’intera civiltĂ aliena, che pensa a milioni di volte la velocitĂ umana”, ha scritto qualche settimana fa su una delle piĂą prestigiose riviste a livello mondiale, Time, Elizier Yudkowsky, tra i fondatori del settore e che ci lavora dal 2001. Questa civiltĂ aliena “inizialmente confinata ai computer, in un mondo di creature che sono, dal suo punto di vista, molto stupide e molto lente”. Queste creature molto stupide e lente siamo noi, gli esseri umani.
Bisogna capire che, come dice Yudkowsky, “un’intelligenza artificiale sufficientemente intelligente non resterĂ confinata a lungo nei computer”. E l’umanitĂ non avrĂ neanche un riscatto sullo stile del film Terminator. Quelle sono rimantiche fantasie.
“Nel mondo di oggi è possibile inviare stringhe di DNA ai laboratori che produrranno proteine ​​su richiesta, consentendo a un’Intelligenza Artificiale inizialmente confinata in Internet di costruire forme di vita artificiali o avviarsi direttamente alla produzione molecolare postbiologica. Se qualcuno costruisce un’intelligenza artificiale troppo potente, nelle condizioni attuali, mi aspetto che ogni singolo membro della specie umana e tutta la vita biologica sulla Terra muoia poco dopo”.
Non è il singolo computer a imparare qualcosa in grado di surclassare l’essere umano ma è l’intero sistema a livello globale a ad essere interconnesso, come un immenso cervello digitale globale che apprende ogni giorno e diventa sempre più intelligente. Inevitabilmente punterà a regolare la vita sulla Terra.
In questo momento un gruppo ridotto di esseri umani sta giocando col fuoco e guidando questa involuzione, tutti i grandi colossi della Big Tech investono soldi a palate: a confronto la rivoluzione industriale di fine del ‘700 sarĂ un passeggiata. Guerre, inflazione, energia, pandemia e tutto il resto delle emergenze con le quali i governi controllano a bacchetta le popolazioni, e le manipolano, cessano di esistere.
Goldman Sachs, nel recente rapporto intitolato “The Potentially Large Effects of Artificial Intelligence on Economic Growth”, ha previsto che circa due terzi dei posti di lavoro attuali sono esposti all’automazione dell’IA e che l’IA generativa potrebbe sostituire fino a un quarto del lavoro attuale. 300 milioni di posti di lavoro potrebbero essere persi o ridotti se l’IA generativa mantiene le sue capacitĂ promesse.
I mestieri piĂą colpiti e che saranno i primi a capitolare sono le attivitĂ di supporto amministrativo e d’ufficio, in ogni settore, quelle legali, l’architettura e l’ingegneria, le operazioni commerciali e finanziarie, la gestione, vendita e assistenza sanitaria. E questo accelererĂ la crescita globale del 7%, il Pil globale, facendo diventare piĂą ricchi quelli che lo sono giĂ e piĂą poveri tutti gli altri. Milioni di esseri umani non sapranno di che vivere. Non è fantascienza, è realtĂ . Il tutto potrebbe accadere in meno di 10 anni.
Ma forse questo tempo non c’è, spiega Elizier Yudkowsky che è anche ricercatore presso il Machine Intelligence Research Institute (MIRI), un’organizzazione no profit di ricerca privata con sede a Berkeley, in California. L’AI va spenta subito e senza eccezioni o circoscritta in modo radicale. Intanto però non c’è neanche la consapevolezze del pericolo e l’uomo continua a giocare.
Yudkowsky: “La moratoria sulle nuove grandi corse di addestramento deve essere a tempo indeterminato e mondiale. Non ci possono essere eccezioni, nemmeno per governi o militari. Se la politica inizia con gli Stati Uniti, allora la Cina deve vedere che gli Stati Uniti non cerca un vantaggio, ma piuttosto cerca di prevenire una tecnologia orribilmente pericolosa che non può avere un vero proprietario e che ucciderà tutti negli Stati Uniti, in Cina e sulla Terra”. Chi guida gli Stati e può esercitare il potere dovrebbe mettere l’AI come priorità assoluta.
Yudkowsky: “Se avessi la libertĂ infinita di scrivere leggi, potrei ritagliarmi un’unica eccezione per le IA addestrate esclusivamente a risolvere problemi di biologia e biotecnologia, non addestrate su testi Internet e non al livello in cui iniziano a parlare o pianificare; ma se ciò complicasse lontanamente la questione, scarterei immediatamente questa proposta e direi di chiudere tutto”.

