Articolo II: Definizioni | Prima che sia troppo tardi: perché la superintelligenza artificiale è una minaccia per l’uminità | If Anyone Builds It, Everyone Dies

Articolo II: Definizioni

Ai fini del presente Trattato:

  1. Intelligenza artificiale (IA): un sistema computazionale che svolge compiti che richiedono cognizione, pianificazione, apprendimento o azioni negli ambiti fisico, sociale o cibernetico. Ciò include i sistemi che svolgono compiti in condizioni variabili e imprevedibili, o che possono apprendere dall'esperienza e migliorare le proprie prestazioni.
  2. Superintelligenza artificiale (SIA): è definita operativamente come qualsiasi IA con prestazioni cognitive sufficientemente superumane da poter pianificare ed eseguire con successo la distruzione dell'umanità.
    1. Ai fini del presente Trattato, si presume che lo sviluppo di IA non esplicitamente autorizzato dall'AISI (Articolo III), e che viola i limiti descritti nell'Articolo IV, abbia lo scopo di creare una superintelligenza artificiale.
  3. Le attività pericolose di IA sono quelle che aumentano sostanzialmente il rischio che venga creata una superintelligenza artificiale, e non si limitano alla fase finale dello sviluppo di una superintelligenza artificiale, ma includono anche le fasi preliminari come stabilito in questo Trattato. L'ambito completo delle attività pericolose di IA è specificato dagli Articoli da IV a IX e può essere elaborato e modificato attraverso l'applicazione del trattato e le attività dell'AISI.
  4. Per Operazioni in virgola mobile (FLOP, acronimo di FLoating-point OPerations) si intende la misura computazionale usata per quantificare la scala dell'addestramento e del post-addestramento, basata sul numero di operazioni matematiche eseguite. Il conteggio delle FLOP deve essere effettuato o in operazioni equivalenti al formato in virgola mobile a mezza precisione (FP16) o in operazioni totali (nel formato utilizzato), scegliendo il valore più alto.
  5. Per Ciclo di addestramento si intende qualsiasi processo computazionale che ottimizza i parametri di un'IA (cioè i dettagli della propagazione delle informazioni attraverso una rete neurale, ad esempio pesi e bias) utilizzando metodi di ricerca/apprendimento basati sul gradiente o altri metodi, tra cui pre-addestramento, messa a punto, apprendimento per rinforzo, ricerche di iperparametri su larga scala che aggiornano i parametri e auto-gioco iterativo o addestramento curricolare.
  6. Per Pre-addestramento si intende la fase di addestramento con cui i parametri di un'IA vengono inizialmente ottimizzati utilizzando set di dati su larga scala per apprendere schemi o rappresentazioni generalizzabili prima di qualsiasi adattamento specifico per un'attività o un ambito. Include l'ottimizzazione supervisionata, non supervisionata, auto-supervisionata e basata sul rinforzo quando viene eseguita prima di tale adattamento.
  7. Per Post-addestramento si intende una fase di addestramento eseguita dopo il pre-addestramento di un modello. Inoltre, qualsiasi addestramento eseguito su un'IA creata prima che questo Trattato entrasse in vigore è considerato post-addestramento.
  8. Per Chip informatici avanzati si intendono circuiti integrati fabbricati con processi avanzati almeno quanto il nodo di elaborazione da 28 nanometri.
  9. Per Chip per l'IA si intendono circuiti integrati specializzati progettati principalmente per i calcoli di IA, incluse, a titolo esemplificativo ma non esaustivo, le operazioni di addestramento e inferenza per i modelli di apprendimento automatico [la definizione andrebbe precisata in un Allegato]. Tra questi vi sono GPU, TPU, NPU e altri acceleratori di IA. Possono essere inclusi anche componenti hardware non originariamente progettati per l'IA, ma che possono essere efficacemente riadattati a tale scopo. I chip per l'IA sono un sottoinsieme dei chip informatici avanzati.
  10. Per Hardware per IA si intende tutto l'hardware informatico utilizzato per l'addestramento e l'esecuzione delle IA. Ciò include i chip per l'IA, così come le apparecchiature di rete, di alimentazione e di raffreddamento.
  11. Apparecchiature per la produzione di chip per l'IA: le apparecchiature utilizzate per fabbricare, testare, assemblare o confezionare chip per l'IA, tra cui, a titolo esemplificativo ma non esaustivo, le apparecchiature per litografia, deposizione, incisione, metrologia, collaudo e packaging avanzato [un elenco più completo andrebbe definito in un Allegato].
  12. Equivalente-H100: unità di potenza di calcolo (FLOP al secondo) pari a quella di un acceleratore NVIDIA H100 SXM, 990 TFLOP/s in VM16, o a una Potenza di Elaborazione Totale (PET) di 15.840, dove la PET è calcolata come PET = 2 × MacTOPS non-sparse × (lunghezza in bit dell'input della moltiplicazione).
  13. Cluster di chip coperti (CCC): qualsiasi insieme di chip per l'IA o cluster in rete con una capacità di calcolo effettiva aggregata superiore a 16 equivalenti-H100. Un cluster in rete si riferisce a chip che sono fisicamente co-locati, che hanno una larghezza di banda aggregata tra i nodi (definita come la somma della larghezza di banda tra host/chassis distinti) superiore a 25 Gbit/s, o che sono collegati in rete per eseguire carichi di lavoro in comune. La capacità di calcolo effettiva aggregata di 16 chip H100 è di 15.840 TFLOP/s, o 253440 PET, e si basa sulla somma delle PET dei singoli chip. Esempi di CCC includono: il server GB200 NVL72, tre server H100 HGX a otto vie ubicati nello stesso edificio, CloudMatrix 384, un pod con 32 chip TPUv6e e qualsiasi supercomputer.
  14. Mezzi tecnici nazionali (MTN): l'insieme delle capacità satellitari, aeree, informatiche, di intelligence dei segnali e di analisi delle immagini (comprese quelle termiche), e altre capacità di telerilevamento impiegate dalle Parti a fini di verifica, in conformità con il presente Trattato.
  15. Verifica dell'uso dei chip: metodi che forniscono indicazioni sulle attività eseguite su specifici chip, al fine di distinguere le attività consentite da quelle proibite.
  16. Per metodi utilizzati per creare modelli di frontiera si intende l'ampia gamma di metodi utilizzati nello sviluppo dell'IA. Questi includono, a titolo esemplificativo ma non esaustivo, architetture di IA, ottimizzatori, metodi di tokenizzazione, cura dei dati, generazione di dati, strategie di parallelismo, algoritmi di addestramento (ad esempio algoritmi apprendimento per rinforzo) e altri metodi di addestramento. Ciò include il post-addestramento, ma esclude i metodi che non modificano i parametri di un modello già addestrato, come il prompting. In futuro potrebbero essere creati nuovi metodi.

Note

La definizione di IA qui riportata (adattata dall'AI Whistleblower Protection Act del senatore Chuck Grassley) è forse troppo ampia, e prevediamo che dovrà essere definita in modo più preciso per escludere sistemi informatici palesemente sicuri come i correttori ortografici o i sistemi di riconoscimento delle immagini.

Nell'attuale paradigma di sviluppo dell'IA, questa definizione è probabilmente accettabile, dato che lo sviluppo dell'IA è ben distinguibile da ricerca e sviluppo non legati all'IA per via dell'uso di ingenti risorse computazionali. Tuttavia, la definizione definitiva di IA che verrà adottata dovrebbe comprendere più dei soli sistemi di apprendimento profondo o apprendimento automatico. Sebbene l'apprendimento profondo sia l'attuale paradigma dominante per l'IA, il trattato dovrebbe tenere conto della possibilità che in futuro un altro paradigma di IA diventi preponderante; altrimenti, un trattato che vieti esclusivamente l'apprendimento automatico incoraggerebbe i ricercatori a sviluppare nuovi paradigmi per costruire IA più potenti e generali, con conseguenze potenzialmente catastrofiche. Se dovesse emergere un paradigma innovativo, in particolare uno che non sia così intensivo nell'uso di chip per l'IA come l'apprendimento profondo, il trattato andrebbe probabilmente aggiornato.

Usiamo l'equivalente-H100 come unità di misura principale per la capacità di calcolo. Nell'Articolo V, questo valore viene usato per stabilire la dimensione del più grande cluster di chip non monitorato consentito (16 equivalenti-H100).* L'Articolo IV definisce le soglie in termini di operazioni totali usate per addestrare un'IA; di conseguenza, fissare limiti alle operazioni non monitorate al secondo renderebbe proibitivi i tempi necessari per condurre un addestramento di dimensioni illegali su hardware non monitorato.

Usiamo gli equivalenti-H100 per tenere conto del fatto che esistono diversi chip per l'IA, ma l'aspetto per noi più importante è il numero di operazioni che possono eseguire in un dato intervallo di tempo. Esistono altre metriche importanti per i chip (come la memoria ad alta larghezza di banda), ma nel complesso riteniamo che siano meno rilevanti del numero di operazioni al secondo. Usare l'equivalente-H100 come unità di misura è un modo piuttosto standard per discutere della capacità di calcolo.

La definizione di cluster di chip coperti (CCC) che includiamo è un'ipotesi iniziale su come definire tale concetto. Idealmente, il limite dovrebbe essere abbastanza alto da impedire alle persone comuni di infrangere le regole (ad esempio, una larghezza di banda di 25 Gbit/s tra chassis è più veloce delle normali connessioni Internet non da data center; il possesso di più di 16 equivalenti-H100 da parte di un singolo individuo è un evento molto raro, oltre che costoso). Dovrebbe anche essere abbastanza basso da impedire attività di IA pericolose e rendere difficile la sovversione (cioè, rendere difficile l'addestramento distribuito su più insiemi di chip sub-CCC). Discutiamo questa decisione più approfonditamente nel commento all'Articolo V.

I chip per l'IA sono un sottoinsieme dei chip avanzati e non esiste una linea di demarcazione netta che li distingua dai chip non dedicati all'IA. Anziché definire e fare affidamento su tale distinzione, usiamo la capacità di calcolo complessiva (in operazioni al secondo) di un cluster, misurata in equivalenti-H100. Se i chip possono essere configurati per l'addestramento o l'esecuzione di IA e superano la soglia definita, il Trattato ne richiede il monitoraggio.

Si noti che la dicitura "mezzi tecnici nazionali" (MTN) potrebbe essere considerata obsoleta come termine ufficiale da alcuni governi. La usiamo in questa bozza di trattato, seguendo lo stile dei precedenti accordi sul controllo degli armamenti per facilitare il confronto.

* Questo è il doppio del limite indicato come chiaramente sicuro nel libro. Probabilmente sarà ancora sicuro per un po' di tempo, e valutare dove dovrebbero essere i limiti (e cambiarli nel tempo) è l'argomento dell'Articolo III, dell'Articolo V e dell'Articolo XIII.