I piani praticabili richiederanno di dire "no" alle aziende di IA.
Noi mettiamo in guardia le persone influenti nei governi dal fare un piano che comporti sedersi a un tavolo e negoziare con le aziende di IA.
Se siete nuovi a questo argomento e volete controllare personalmente i laboratori o le loro argomentazioni, vi invitiamo a leggere alcuni dei loro blog post pubblici e vedere se li trovate convincenti.*
Ma se state lavorando per trovare soluzioni ai problemi discussi in Prima che sia troppo tardi e avete un piano che richiede che l'amministratore delegato di OpenAI Sam Altman dica "Sì", temiamo che stiate cercando di fare la cosa sbagliata fin dall'inizio.
I piani giusti sono probabilmente quelli a cui i capi delle aziende di IA si opporranno con veemenza. Inoltre, Sam Altman non ha il potere di salvare il mondo: se domani provasse a chiudere OpenAI, OpenAI e Microsoft si opporrebbero e potrebbero benissimo sostituirlo con qualcuno che preferisce far continuare a scorrere il denaro.
Se OpenAI davvero chiudesse, allora Anthropic, o Google DeepMind, o Meta, o DeepSeek, o qualche altra azienda o nazione, distruggerebbe il mondo al suo posto. Sam Altman potrebbe peggiorare le cose se ci provasse; ha poco potere per migliorarle.
Ci piacerebbe sbagliarci, ma il quadro generale che abbiamo ottenuto, sia dai rapporti pubblici che da interazioni private, è che i dirigenti delle principali aziende di IA (al 2025) non sembrano il tipo di persone oneste e rispettose delle regole con cui sia possibile fare accordi.†
Ci sembra che quello che serve ora sia un arresto coordinato a livello globale nella corsa alla superintelligenza. Per questo, i responsabili politici avranno probabilmente bisogno del contributo di persone esperte nella produzione di chip per l'IA, nella costruzione di data center e nel monitoraggio della conformità degli attori stranieri. Persone esperte nello sviluppo di IA sempre più potenti? Sono manager competenti, certo, ma non dovrebbero avere potere di veto su nessuno degli sforzi volti a fermare il loro stesso lavoro.
Se, per qualsiasi motivo, le aziende di IA hanno voce in capitolo su ciò che accadrà dopo, questo ci sembra già un segno che qualcosa è andato storto. Il piano che l'umanità elabora per evitare di morire a causa della superintelligenza è il tipo di piano che fallisce se Sam Altman o il capo di Google o le persone dietro DeepSeek dicono "No"? Allora non è affatto un buon piano.
Se le aziende di IA mantengono il potere di scegliere di distruggere il mondo — se quella decisione è in qualche modo ancora nelle loro mani — allora il mondo finirà in automatico. Deve esserci un passaggio nel piano che privi le aziende di IA del loro potere illimitato di costruire dispositivi dell'apocalisse.
* Per nostra esperienza, questi testi tendono a puntare molto sulla retorica e poco sulla sostanza, passando spesso silenziosamente tra affermazioni anche contraddittorie a seconda di ciò che è di moda o politicamente conveniente al momento. Non ne ricaviamo l'impressione che si tratti di descrizioni oneste e trasparenti nemmeno delle reali posizioni dei responsabili dei laboratori, il che li rende meno utili rispetto al leggere i pareri critici di altri. Ma questa è la nostra opinione; se affrontate la questione per la prima volta e volete valutare da soli se altre parti hanno buone contro-argomentazioni che qui non abbiamo trattato, non dovreste necessariamente prendere per oro colato ciò che diciamo sulle fonti migliori.
† Se vi serve l'input di un capo di laboratorio per qualcosa e ci chiedete un consiglio, diremmo che l'opzione meno peggiore è probabilmente Demis Hassabis. Tra i principali capi di laboratorio con cui almeno uno di noi ha avuto a che fare (che, al 2025, sono tutti) Hassabis è l'unico che abbiamo visto mantenere costantemente la parola data nei rapporti commerciali e che sembra aver preso meno decisioni distruttive.