I rischi di una degenerazione sono dietro l’angolo. Di questo ha parlato Sam Altman, Ad di OpenAi, insieme ad altri 350 esperti
Il fondatore di ChatGPT, il modello di intelligenza artificiale sviluppato da OpenAI, ha sollevato un importante allarme che riguarda l’umanità nel suo complesso. Secondo oltre 350 esperti, professori e figure di spicco nel campo tecnologico, l’IA rappresenta una minaccia così grave da poter portare all’estinzione dell’umanità stessa. Questi esperti esortano i politici di tutto il mondo a considerare questa minaccia alla stregua di altre catastrofi globali come le pandemie e la guerra nucleare. Il Center for AI Safety (Cais) ha pubblicato una breve lettera in cui si sottolinea la necessità di affrontare il rischio di estinzione derivante dall’intelligenza artificiale come una priorità globale.
Tra i firmatari di questa lettera ci sono importanti figure del settore, tra cui Sam Altman, CEO di OpenAI, e i noti esperti di intelligenza artificiale Geoffrey Hinton e Yoshua Bengio. Nel messaggio, che mira a essere conciso, sono presenti anche altri firmatari di spicco come Demis Hassabis, CEO di DeepMind, Max Tegmark del MIT, Jaan Tallinn, co-fondatore di Skype, e la musicista Grimes. Questi esperti hanno voluto mantenere il messaggio breve per evitare che la discussione si concentri su altri rischi legati all’intelligenza artificiale, pur importanti, che potrebbero distrarre dal pericolo più immediato.
Chat GPT, l’allarme degli esperti
La crescente popolarità dei chatbot generativi, come ChatGPT, ha portato ad una serie di appelli per valutare le implicazioni dello sviluppo di tali strumenti. Lo scorso marzo, ad esempio, Elon Musk ha co-firmato una lettera aperta che chiedeva una pausa di sei mesi nello sviluppo di modelli più potenti del GPT-4 di OpenAI, al fine di consentire il tempo necessario per elaborare protocolli di sicurezza condivisi per l’intelligenza artificiale avanzata. Non tutti gli addetti ai lavori, però, sono convinti dell’allarme sollevato dai firmatari della lettera.
Alcune testate specializzate, come TechCrunch, ritengono sospetto che gli imprenditori del settore dell’IA evochino scenari così apocalittici. Secondo queste fonti, puntare il dito sui pericoli futuri potrebbe distogliere l’attenzione dalle problematiche presenti, come l’uso non autorizzato di dati protetti da copyright per addestrare i sistemi di intelligenza artificiale, la raccolta sistematica di dati personali in violazione della privacy delle persone e la mancanza di trasparenza da parte delle grandi aziende di intelligenza artificiale riguardo ai dati utilizzati per l’addestramento di tali strumenti.