La missione di OpenAI è garantire che l’intelligenza artificiale generale (AGI) porti benefici a tutta l’umanità. La sicurezza—la pratica di ampliare gli impatti positivi dell’IA riducendo al contempo quelli negativi—è quindi centrale per questa missione.
La comprensione di come promuovere la sicurezza si è evoluta significativamente nel tempo, e il testo seguente è un ritratto attuale dei principi che guidano questa visione. OpenAI non ha la certezza assoluta che tutte le sue convinzioni siano corrette, ma riconosce che l’IA trasformerà gran parte del mondo.
Pertanto, è cruciale riflettere in anticipo sui benefici, i cambiamenti e i rischi di questa tecnologia.
AGI in molti passi, non con un salto gigante
In passato, OpenAI considerava lo sviluppo dell’intelligenza artificiale generale (AGI) come un momento improvviso, in cui i sistemi di IA sarebbero passati bruscamente dalla risoluzione di problemi semplici all’affrontare sfide globali.
Attualmente, l’organizzazione vede la prima AGI come un punto in una sequenza continua di sistemi sempre più utili.
In uno scenario discontinuo, la preparazione per l’arrivo dell’AGI si limitava a trattare i sistemi attuali con estrema cautela, in modo sproporzionato rispetto al loro apparente potere.
È quanto accaduto, ad esempio, con GPT-2, che inizialmente non è stato rilasciato a causa di preoccupazioni relative a possibili utilizzi malevoli.
Invece, in uno scenario continuo, il modo per rendere il sistema successivo sicuro e vantaggioso è imparare da quello attuale.
Per questo motivo, OpenAI ha adottato una strategia di implementazione iterativa, consentendo di approfondire la conoscenza sulla sicurezza e sugli usi impropri, dando alla società il tempo di adattarsi e sfruttare i benefici dell’IA nella pratica. Attualmente, OpenAI sta esplorando il paradigma dei modelli di ragionamento concatenato (chain-of-thought), che promettono un grande impatto futuro.
In questo contesto continuo, il rilascio di modelli supporta la sicurezza, anziché comprometterla.
Queste diverse visioni portano a interpretazioni differenti di cosa sia sicuro. Il lancio di ChatGPT, ad esempio, è stato percepito in modi diversi dalla comunità, a seconda che gli esperti credessero in un progresso continuo o discontinuo dell’IA.
Impatto dell’AGI
OpenAI sviluppa AGI credendo nel suo potenziale trasformativo positivo. Praticamente ogni sfida affrontata dall’umanità può essere superata con un’AGI sufficientemente avanzata, poiché l’intelligenza ha storicamente favorito progressi come l’alfabetizzazione, le macchine e le innovazioni mediche.
Tuttavia, l’intelligenza è un concetto neutro e, di per sé, non garantisce trasformazioni positive. Per realizzare il potenziale dell’AGI, sono necessari sforzi continui per mitigare possibili danni, garantendo che il suo sviluppo e funzionamento siano allineati ai valori umani e sotto il controllo umano.
Man mano che l’IA diventa più potente, i rischi aumentano. I potenziali problemi futuri sono suddivisi in tre categorie principali:
- Uso improprio da parte degli esseri umani: Applicazione dell’IA in modi che violano leggi e valori democratici, inclusa la censura, la sorveglianza o la propaganda personalizzata.
- IA disallineata: Azioni o comportamenti dell’IA che divergono dai valori, dagli obiettivi o dalle intenzioni umane rilevanti.
- Disgregazione sociale: Cambiamenti rapidi causati dall’IA che possono generare tensioni sociali, disuguaglianze o alterare profondamente norme e valori sociali.
Principi fondamentali di OpenAI
OpenAI ammette di non sapere esattamente come sarà il futuro, ma segue principi chiari:
- Accettazione dell’incertezza: Considerare la sicurezza come una scienza, imparando dall’implementazione iterativa anziché solo da principi teorici.
- Difesa in profondità: Combinare più livelli di intervento per garantire la sicurezza.
- Metodi scalabili: Sviluppare metodi di sicurezza che diventino più efficaci con modelli più intelligenti.
- Controllo umano: Creare IA che promuova i valori umani e democratici.
- Impegno collettivo: Riconoscere che migliorare la sicurezza è una responsabilità condivisa.
Questi principi guidano l’approccio proattivo e rigoroso di OpenAI nell’affrontare le sfide e i rischi emergenti con l’avanzare dell’IA.