La situazione non migliorerà una volta che i governi saranno più coinvolti? | Prima che sia troppo tardi: perché la superintelligenza artificiale è una minaccia per l’uminità | If Anyone Builds It, Everyone Dies

La situazione non migliorerà una volta che i governi saranno più coinvolti?

Dipende da come (e quanto presto) saranno coinvolti.

Quando visitiamo Washington, DC, spesso incontriamo decisori politici che pensano che le aziende di IA abbiano le loro IA sotto controllo. Allo stesso tempo, vediamo regolarmente persone nel settore dell'IA che dicono che la regolamentazione risolverà il problema. Un esempio particolarmente eclatante che abbiamo osservato è stato l'amministratore delegato di Google che ha affermato che "il rischio [che l'umanità venga spazzata via] è in realtà piuttosto alto", ma sostenendo che più alto diventa il rischio, più è probabile che l'umanità si mobiliti per prevenire la catastrofe.

Mettendo da parte quanto sia folle che l'amministratore delegato di un'azienda corra a sviluppare una tecnologia che lui ritiene metta in pericolo tutti sulla Terra nella speranza che l'umanità si "mobiliti" per affrontare i rischi che lui stesso sta contribuendo a creare, osserviamo che questo è un caso in cui una persona dal lato tecnico della questione immagina che qualcun altro risolverà il problema.

Nel frattempo, la maggior parte delle persone in politica sembra pensare che la comunità tecnica risolverà il problema. Questo è implicito, ad esempio, ogni voltachediconochedobbiamovincerelacorsa — non è possibile che questo tipo di corsa abbia un vincitore, se le sfide tecniche non vengono risolte. Anche se potrebbe non essere poi così grave; forse i decisori politici non stanno davvero pensando a una corsa alla superintelligenza; forse stanno solo pensando a una corsa per chatbot migliori. A giugno 2025, un consulente di politica dell'IA che conosciamo descrive il Congresso come generalmente non incline a credere alle aziende di IA quando dichiarano esplicitamente di stare lavorando alla superintelligenza (anche se con alcune importanti eccezioni).

Quasi tutti quelli al potere sembrano immaginare che qualcun altro risolverà il problema.

Per ulteriori discussioni su come il mondo in generale sta reagendo (e su come i decisori spesso non riescano a reagire in modo appropriato prima dei disastri), si veda il Capitolo 12. Ad agosto 2025, i governi devono ancora organizzare qualcosa che si avvicini a una risposta seria a questo problema. E c'è sempre il rischio che i funzionari governativi non riescano a comprendere appieno la sfida e (ad esempio) trattino l'IA come una tecnologia normale che non dovrebbe essere soffocata da un eccesso di regolamentazione.

Per ulteriori informazioni su quali interventi governativi hanno una reale possibilità di evitare una catastrofe dell'IA, si veda il Capitolo 13, così come la discussione sul perché una collaborazione internazionale probabilmente non sarebbe sufficiente.

La tua domanda non ha trovato risposta qui?Invia una domanda.