Non è più furbo evitare di parlare di estinzione?
Il tempo dei giochi politici è finito.
Alcuni sostengono che chi è preoccupato per la corsa alla creazione di una superintelligenza dovrebbe tenere per sé le proprie opinioni e parlare invece della perdita di posti di lavoro causata dall'IA, o del problema dei bioterroristi che usano ChatGPT, o di quanta acqua serve per raffreddare i computer nei data center.* Riteniamo che questo approccio sia un eccesso di furbizia e che rischi di essere controproducente. In effetti, abbiamo già visto che è stato controproducente in diverse occasioni.
I quattro problemi principali che vediamo in questo approccio sono:
Non è onesto, e le persone sono brave a riconoscere la disonestà e i doppi giochi.
Anche se siete dei bugiardi fuori dal comune, le argomentazioni su questioni che ritenete secondarie rischiano di apparire "stonate" in vari modi. Non sembreranno del tutto sensate, per le stesse ragioni per cui le ritenete, appunto, secondarie. Più edulcorate le vostre argomentazioni quando le condividete, più è probabile che le persone concludano che siete o confusi sulla questione o non del tutto onesti su ciò che pensate realmente. E in entrambi i casi, non apparirete come buoni alleati o fonti di informazioni affidabile.
Probabilmente non è necessario. Secondo la nostra esperienza, una conversazione onesta e diretta sulla superintelligenza viene accolta molto meglio dei tentativi di deviare l'attenzione su altre questioni, come i deepfake dell'IA. Dalla metà del 2023 e con frequenza crescente, io (Soares) ho parlato con vari funzionari eletti. Ho partecipato a cene in cui persone "preoccupate per l'IA" hanno sollevato la possibilità di terroristi assistiti dall'IA, e un funzionario eletto in carica ha risposto che le sue paure sono molto più urgenti e gravi, perché teme che le IA capaci di auto-migliorarsi ricorsivamente possano produrre una superintelligenza in grado di spazzarci via completamente dalla faccia della Terra, e che potrebbe essere creata entro tre anni.
Persino i funzionari eletti del Congresso degli Stati Uniti sono disposti a prendere sul serio la questione e a cercare modi per affrontarla.† La questione può sembrare più di nicchia e controversa di quanto non sia in realtà, perché al momento della pubblicazione di questo libro non c'è ancora stato un vero e proprio dibattito pubblico nazionale o internazionale al riguardo. Ma abbiamo avuto molte conversazioni franche a Washington su questo argomento che sono andate incoraggiantemente bene.‡
Rispondere a queste altre questioni non risolve il problema della superintelligenza. Le aziende di IA stanno correndo per creare la superintelligenza. Se ci riescono, moriremo tutti. Le soluzioni che hanno senso per questo problema sono molto diverse da quelle che hanno senso per affrontare i deepfake generati dall'IA, o persino il bioterrorismo reso possibile dall'IA.
La sovrapposizione non è pari a zero, e potremmo raccogliere più sostegno per affrontare l'IA più intelligente dell'uomo sottolineando le sovrapposizioni tra le diverse questioni. Ma è estremamente improbabile che il mondo riesca a trovare una risposta adeguata a una questione così complicata come la superintelligenza senza concentrarsi sul problema reale.
È plausibile che il tempo a disposizione sia poco. È improbabile che abbiamo il tempo di introdurre gradualmente le persone a questo rischio nel corso di molti anni, partendo da questioni più semplici e familiari per poi procedere gradualmente fino alla superintelligenza. Se non ci mobilitiamo rapidamente per rispondere a questo problema, è plausibile che non avremo alcuna possibilità di rispondere.
Questo non vuol dire che la perdita di posti di lavoro, il bioterrorismo, ecc. non siano problemi reali a sé stanti. È solo che la società non fermerà davvero la sconsiderata corsa al suicidio se non sa che ne è in corso una.
Abbiamo passato anni a osservare amici e conoscenti nell'ambito delle politiche pubbliche sondare il terreno su problemi come i bioterroristi potenziati da ChatGPT. Per quanto ne sappiamo, non sembra che tutto ciò sia approdato a qualcosa in grado di impedire davvero la creazione della superintelligenza.
Siamo nerd fino al midollo, ben lontani dalla nostra zona di comfort quando si tratta di scrivere un libro divulgativo. Non pretendiamo di essere esperti di politiche efficaci. Ma ci sembra che l'umanità abbia raggiunto il limite dei problemi che può superare con un discorso fatto di argomenti prudenti, scelti strategicamente e non «allarmistici».
A un certo punto, come esseri umani, dobbiamo iniziare a parlare della minaccia incombente. La politica deve fondarsi sulla realtà dei fatti, non su una comunicazione all'apparenza rassicurante.
I direttori dei laboratori di IA sostengono che potremmo vedere IA capaci di fare ricerca superare gli esseri umani nel giro di uno - quatttroanni. Speriamo con tutto il cuore che si sbaglino ma, con tutta la nostra esperienza, non possiamo sapere che hanno torto. Nemmeno i responsabili politici possono saperlo. L'umanità, semplicemente, non sta reagendo in modo adeguato alla sfida che ha di fronte. Se non si lancia l'allarme ora, quando?
Inoltre, da quando abbiamo steso la prima bozza di questo paragrafo, la strategia che sosteniamo sembra dare sempre più i suoi frutti, come si può vedere dalla lista delle dichiarazioni dei politici sulla superintelligenza nel corso dell'estate del 2025\. I tempi sembrano maturi per una discussione seria sul pericolo imminente che la superintelligenza artificiale rappresenta.
* Che in realtà non è molto, contrariamente a quanto ampiamenteriportato.
† Anche se vari funzionari di Washington sono d'accordo con le nostre preoccupazioni sulla superintelligenza, non hanno il potere di risolvere la questione a meno che non si uniscano molti più funzionari negli Stati Uniti e in altre nazioni. Le prime discussioni sono state promettenti, ma c'è ancora molto lavoro da fare.
‡ Un altro segnale positivo che abbiamo notato mentre finivamo queste risorse online è che un bel po' di esperti di sicurezza nazionale ed ex funzionari di Washington hanno detto cose positive sulle copie in anteprima di Prima che sia troppo tardi. Ecco qualche esempio: