top of page

Che cos'è l'AGI e come cambierà il mondo

Aggiornamento: 14 apr




La nostra missione è assicurare che l'Artificial general Intelligence – ossia sistemi di intelligenza artificiale che sono generalmente più intelligenti degli esseri umani – porti beneficio a tutta l'umanità. Sam Altman (CEO di OpenAI)


AGI è un acronimo che sta per artificial general intelligence. In parole molto semplici, si tratta del traguardo ideale

di un sistema di intelligenza artificiale di comprendere ed eseguire qualsiasi attività intellettuale propria degli esseri umani. I sistemi di intelligenza artificiale attualmente disponibili per il pubblico, anche con il modello attualmente più avanzato noto come chatGPT4, non hanno raggiunto ancora questo obiettivo sebbene vi siano alcuni rumors su Twitter che, riferendosi a presunte fonti interne ad OpenAi, preannunciano che un primo modello di intelligenza AGI sarebbe disponibile entro la fine del 2023. Alcuni autorevoli scienziati sostengono che questo livello sia intrinsecamente irraggiungibile da sistemi di intelligenza artificiale.

Vi proponiamo qui di seguito la traduzione integrale del post di Sam Altman, Ceo dei OpenAI, pubblicato il 24 febbraio 2023 sul sito della sua società (https://openai.com/blog/planning-for-agi-and-beyond#SamAltman) proprio sul tema dell’AGI.


 

Pianificare l'AGI e oltre

Di Sam Altman


Se l'AGI venisse creata con successo, questa tecnologia potrebbe aiutarci ad elevare l'umanità aumentando l'abbondanza, potenziando l'economia globale e facilitando la scoperta di nuove conoscen


ze scientifiche che cambierebbero i limiti del possibile.

L'AGI ha il potenziale per fornire a tutti incredibili nuove capacità; possiamo immaginare un mondo in cui tutti noi abbiamo accesso ad aiuto per quasi qualsiasi compito cognitivo, fornendo un grande moltiplicatore di forza per l'ingegno e la creatività umana.

D'altra parte, l'AGI comporterebbe anche seri rischi di uso improprio, gravi incidenti e problemi sociali. Poiché il vantaggio dell'AGI è così grande, non riteniamo che sia possibile o auspicabile che la società fermi il suo sviluppo per sempre; invece, la società e gli sviluppatori dell'AGI devono capire come farlo correttamente [A].


Sebbene non possiamo prevedere esattamente cosa accadrà e ovviamente il nostro attuale progresso potrebbe incontrare degli ostacoli, possiamo enunciare i principi che ci interessano di più:

1. Vogliamo che l'AGI consenta all’umanità di fiorire al massimo nell'universo. Non ci aspettiamo che il futuro sia una utopia incondizionata, ma vogliamo massimizzare il bene e minimizzare il male, e che l'AGI possa essere un amplificatore dell'umanità.


2. Vogliamo che i benefici dell'accesso e della governance dell'AGI siano ampiamente ed equamente condivisi.


3. Vogliamo avere la meglio su tali enormi rischi. Nell’affrontare questi rischi, riconosciamo che ciò che sembra giusto in teoria spesso si realizza in pratica in modo più anomalo di quanto ci aspettiamo. Crediamo che dobbiamo continuamente imparare e adattarci mediante la distribuzione di versioni meno potenti della tecnologia al fine di minimizzare scenari che costituiscono "un'occasione di miglioramento".


Il breve termine


Ci sono diverse cose che riteniamo importanti fare ora per prepararsi all'AGI.


In primo luogo, man mano che creiamo sistemi sempre più potenti, vogliamo implementarli e acquisire esperienza nel renderli operativi nel mondo reale. Crediamo che questo sia il modo migliore per gestire attentamente l’introduzione dell'AGI - una transizione graduale verso un mondo con l’AGI è preferibile a una sua introduzione improvvisa. Ci aspettiamo che un’intelligenza artificiale potente acceleri notevolmente il tasso di progresso nel mondo, e pensiamo sia meglio adattarsi a ciò in modo incrementale.


Una transizione graduale può fornire alle persone, ai decisori politici e alle istituzioni il tempo di comprendere cosa sta accadendo, sperimentare personalmente i vantaggi e gli svantaggi di questi sistemi, adattare la nostra economia e mettere in atto forme di regolamentazione. Inoltre, permette alla società e all'AI di evolversi insieme e alle persone di trovare collettivamente ciò che vog liono mentre la posta in gioco è relativamente più bassa.

Attualmente, crediamo che il modo migliore per affrontare con successo le sfide dell’implementazione dell'AI consista in un ciclo di feedback stretto, apprendimento rapido e verifica attenta. La società dovrà affrontare questioni importanti su ciò che le AI sono autorizzate a fare, come combattere il pregiudizio, affrontare la disoccupazione e altro ancora. Le decisioni ottimali dipenderanno dal percorso che la tecnologia prenderà, e come per qualsiasi nuovo campo, la maggior parte delle previsioni attuali degli esperti potrebbero essere sbagliate. Ciò rende molto difficile pianificare rispetto all’incognito [B].


In generale, riteniamo che un maggiore utilizzo dell'AI nel mondo porterà a conseguenze positive e vogliamo promuoverlo (rendendo disponibili i modelli nella nostra API, open-sourcing, ecc.). Crediamo che un accesso democratico porti anche a una maggiore e migliore ricerca, un potere decentralizzato, più benefici e un insieme più ampio di persone che contribuiscono con nuove idee.

Man mano che i nostri sistemi si avvicinano all'AGI, stiamo diventando sempre più cauti nella creazione e distribuzione dei nostri modelli. Le nostre decisioni richiederanno molta più prudenza di quella che la società solitamente applica alle nuove tecnologie, e più prudenza di quanto molti utenti vorrebbero. Alcune persone nel campo dell'AI pensano che i rischi dell'AGI (e dei sistemi successivi) siano fittizi; saremmo felici se avessero ragione, ma agiremo come se questi rischi fossero di ordine esistenziale.

In un certo momento, l'equilibrio tra i vantaggi e gli svantaggi delle implementazioni (come facilitare l’attività dei malintenzionati, dirompenti problemi sociali ed economici, l’accelerazione di un sistema non sicuro) potrebbe cambiare, in tal caso cambieremmo significativamente i nostri piani riguardo alla distribuzione continua.



Man mano che i nostri sistemi si avvicinano all'AGI, stiamo diventando sempre più cauti nella creazione e distribuzione dei nostri modelli.


Secondo, stiamo lavorando per creare modelli sempre più allineati e controllabili. Il nostro passaggio da modelli come la prima versione di GPT-3 a InstructGPT e ChatGPT è un primo esempio in questo senso.

In particolare, riteniamo importante che la società concordi su limiti estremamente ampi sull'uso dell'AI, ma anche che nell’ambito di questi limiti gli utenti individuali abbiano molta discrezionalità. La nostra maggiore speranza è che le istituzioni del mondo concordino su quali dovrebbero essere tali ampi limiti; nel breve termine, stiamo pianificando l’esecuzione di esperimenti per ricevere input esterni. Le istituzioni del mondo dovranno avvalersi di competenze ed esperienze aggiuntive per essere preparate per decisioni complesse sull'AGI.


La "configurazione predefinita" dei nostri prodotti probabilmente sarà piuttosto limitata, ma abbiamo in programma di facilitare per gli utenti la modifica del comportamento dell'AI che stanno usando. Crediamo nell'empowerment degli individui a prendere le proprie decisioni e nel potere intrinseco della diversità di idee.

Dovremo sviluppare nuove tecniche di allineamento man mano che i nostri modelli diventano più potenti (e test per capire quando le nostre tecniche attuali stiano fallendo). Il nostro piano nel breve termine è quello di utilizzare l'AI per aiutare gli esseri umani a valutare le uscite di modelli più complessi e monitorare i sistemi complessi, e nel lungo termine utilizzare l'AI per aiutarci a trovare nuove idee per migliori tecniche di allineamento.


È importante sottolineare che spesso siamo costretti ad allineare i progressi sulla sicurezza dell'AI con quelli relativi alle sue capacità. È una falsa dicotomia parlare della separazione di questi due aspetti; sono correlati in molti modi. I nostri migliori risultati circa la sicurezza derivano dal lavoro con i nostri modelli più potenti. Detto questo, è importante che il rapporto tra progresso sulla sicurezza e progresso sulla potenza sia incrementata.

Terzo, speriamo di avviare una conversazione globale su tre questioni fondamentali: come governare questi sistemi, come distribuire equamente i benefici che generano e come condividere in modo giusto l'accesso ad essi.

Inoltre, abbiamo cercato di strutturare la nostra organizzazione in modo da incentivare alcuni valori positivi. Abbiamo una clausola nel nostro statuto che prevede di aiutare altre organizzazioni ad avanzare nella sicurezza invece di gareggiare con loro nello sviluppo di AGI in fase avanzata. Abbiamo un tetto massimo sui rendimenti che i nostri azionisti possono guadagnare, in modo da non essere incentivati a cercare di ottenere vantaggio economico senza limiti e rischiare di rendere disponibile qualcosa potenzialmente ma catastroficamente pericoloso (e ovviamente allo stesso tempo è un modo per condividerne i benefici con la società). Abbiamo un'organizzazione non profit che ci governa e ci consente di operare per il bene dell'umanità (prescindendo da qualsiasi finalità di lucro), consentendoci persino di annullare i nostri obblighi di equity verso gli azionisti se necessario per la sicurezza e di sponsorizzare il più completo esperimento di UBI (reddito base universale) al mondo.



Abbiamo cercato di creare una struttura che allinei i nostri incentivi ad un buon risultato.

Crediamo che sia importante che iniziative come la nostra si sottopongano ad audit indipendenti prima di rilasciare nuovi sistemi; forniremo maggiori dettagli a tale riguardo entro la fine dell'anno. A un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare a formare futuri sistemi e sforzarsi di concordare la limitazione del tasso di crescita della capacità computazionale richiesta per creare nuovi modelli. Pensiamo che siano importanti standard pubblici che impongano quando il training di un’AGI debba essere fermato, che determinino se un modello sia sicuro per essere rilasciato o impongano la rimozione un modello dall'uso produttivo. Infine, riteniamo importante che i principali governi mondiali concordino una visione comune circa i training che siano al di sopra di una certa scala.


Il lungo periodo

Crediamo che il futuro dell'umanità debba essere determinato dall'umanità stessa ed è importante condividere informazioni sui progressi con il pubblico. Tutti gli sforzi volti a costruire un’AGI dovrebbero essere sottoposti a un'attenta revisione e consultazione pubblica per le decisioni importanti.


La prima AGI sarà solo un punto lungo la linea dell'intelligenza. Crediamo che i progressi continueranno da lì, forse mantenendo il tasso di progresso che abbiamo visto nell'ultimo decennio per un lungo periodo di tempo. Se ciò fosse vero, il mondo potrebbe diventare estremamente diverso da come è oggi e i rischi potrebbero essere straordinari. Un AGI superintelligente non allineato potrebbe causare danni gravissimi al mondo; lo stesso potrebbe fare un regime autocratico con un'indiscutibile leadership nella superintelligenza.


L'AI in grado di accelerare la scienza è una questione particolare che vale la pena di tenere in considerazione, dal momento che avrà forse maggiore impatto di tutto il resto. È possibile che un AGI abbastanza capace da accelerare il proprio progresso possa causare cambiamenti significativi che accadono in modo sorprendentemente rapido (e anche se la transizione inizia lentamente, ci aspettiamo che accada abbastanza rapidamente nelle fasi finali). Pensiamo che un “decollo” più lento sia più facile da rendere sicuro e il coordinamento tra gli sforzi di AGI per rallentare in momenti critici sarà probabilmente importante (anche in un mondo in cui non abbiamo bisogno di farlo per risolvere i problemi tecnici di allineamento, rallentare potrebbe essere importante per dare alla società abbastanza tempo per adattarsi).

La transizione con successo in un mondo con la superintelligenza è forse il progetto più importante, e allo stesso tempo speranzoso e spaventoso, della storia umana. Il successo è tutt'altro che garantito e gli stakeholder (rischi inimmaginabili e opportunità inimmaginabili) speriamo uniscano tutti noi.


Possiamo immaginare un mondo in cui l'umanità prospera in misura probabilmente impossibile per ciascuno di noi deve immaginare completamente. Speriamo di contribuire a questo mondo con un AGI allineata a tale prosperità.



Note a piè di pagina


A. Sembra che abbiamo ricevuto molti vantaggi rispetto a quanto ci attendessimo in precedenza: ad esempio, sembra che la creazione di AGI richiederà enormi quantità di calcolo quindi, sebbene il mondo saprà chi ci sta lavorando, la concezione originale di agenti di RL iper-evoluti che competono tra loro ed evolvono l'intelligenza in un modo che non possiamo realmente osservare sia meno probabile di quanto sembrasse originariamente, quasi nessuno ha previsto che faremmo così tanti progressi sui modelli di lingua preaddestrati che possono imparare dalle preferenze collettive e dall'output dell'umanità, ecc.


L’AGI potrebbe essere raggiunta presto o in un lontano futuro; la velocità di “decollo” dall'AGI iniziale rispetto ai sistemi successivi più potenti potrebbe essere lenta o veloce. Molti di noi pensano che il quadrante più sicuro in questa matrice due per due sia quello dei tempi brevi e della lenta velocità di decollo; i tempi più brevi sembrano più conciliabili con il coordinamento e più suscettibili di condurre a un “decollo” più lento a causa di una minore sovrapposizione di calcolo, e un decollo più lento ci dà più tempo per capire empiricamente come risolvere il problema della sicurezza e come adattarci.


B. Ad esempio, quando abbiamo iniziato OpenAI, non ci aspettavamo che lo scaling fosse così importante come si è rivelato. Quando abbiamo capito che sarebbe stato cruciale, abbiamo anche capito che la nostra struttura originale non avrebbe funzionato - semplicemente non avremmo potuto raccogliere abbastanza soldi per realizzare la nostra missione come organizzazione non profit - e quindi abbiamo ideato una nuova struttura.

Un altro esempio: ora crediamo di aver sbagliato nel nostro pensiero originale circa la nostra “apertura”, e ci siamo spostati dal pensare che dovremmo rendere tutto “aperto” (anche se “apriamo” alcune cose, e ci aspettiamo di “aprire” cose più interessanti in futuro!) a pensare che dovremmo capire come condividere in sicurezza l'accesso e i benefici dei sistemi. Crediamo ancora che i benefici della comprensione della società su ciò che sta accadendo siano enormi e che consentire tale comprensione sia il modo migliore per garantire che ciò che viene costruito sia ciò che la società collettivamente desidera (ovviamente ci possono essere molte sfumature e disaccordi a tale riguardo).

bottom of page