Le aziende più spericolate non saranno naturalmente le più incompetenti, e quindi innocue?
Non in generale. Spesso prendere scorciatoie è competitivo.
Gli sforzi della Volkswagen per falsificare i test sulle emissioni dal 2008 al 2015 sono stati audaci — e apparentemente efficaci. Gli incidenti del 2018-2019 del Boeing 737 MAX, dovuti a difetti nel sistema di controllo di volo che la direzione conosceva ma ha minimizzato, hanno causato la morte di 346 persone. Ma l'industria automobilistica e quella aeronautica sono settori altamente competitivi in cui Volkswagen e Boeing erano, e rimangono, dei colossi.
Non ci sembra un gran mistero che chi prende scorciatoie sia competitivo. In entrambi i casi, il comportamento sembra essere stato guidato dalla pressione di portare sul mercato prodotti ad alte prestazioni a un prezzo inferiore e prima della concorrenza. Anche adesso, dopo ingenti risarcimenti e danni al marchio, non è ovvio che le aziende siano meno competitive per avere una cultura aziendale che incoraggia l'uso intelligente di scorciatoie, anche se questo a volte significa farsi scoprire.
Se pensate che le principali aziende di IA facciano eccezione a questa regola, considerate il seguente titolo (e sottotitolo) del luglio 2025:
Titolo: “Grok lancia una compagnia anime pornografica e ottiene un contratto con il Dipartimento della Difesa”. Sottotitolo: “Nel frattempo, la versione più avanzata del chatbot AI di xAI di Elon Musk continua a identificarsi come Adolf Hitler”.
Non pensiamo che sia tecnicamente possibile per nessun team che usi metodi moderni costruire una superintelligenza senza causare una catastrofe. Ma anche se questo fosse vagamente possibile con la tecnologia di oggi, sembra quasi inevitabile che un'azienda di IA finirebbe comunque per combinare un pasticcio e causare la morte di tutti, visto il livello di competenza e serietà che vediamo oggi.
Le aziende più caute di oggi sono comunque avventate.
L'azienda di IA Anthropic è considerata da un numero ragionevole di persone come leader nella "sicurezza dell'IA", perché ha promosso iniziative come impegni volontari per la sicurezza. Ma anche loro modificano i loro impegni volontari all'ultimo minuto quando si rendono conto di non poterli rispettare, e i "piani" che hanno sono vaghi e poco ponderati, come abbiamo criticato nel capitolo 11 e nella discussione approfondita qui sotto.
Anthropic trae grande vantaggio dal fatto che gli osservatori applicano un metro di giudizio indulgente: in un settore normale, un'azienda che sceglie di mettere in pericolo la vita di miliardi di persone (come ha ammesso l'amministratore delegato) mentre sminuisce regolarmente le proprie attività al pubblico e ai legislatori*, non riceverebbe certo elogi per la sua moderazione.
Prendere scorciatoie è normale nell'IA, come in molti settori competitivi. L'incoscienza è comune. E le aziende meno incoscienti non sono visibilmente all'altezza delle sfide.
* Ad esempio, nella testimonianza al Congresso:
Notes
[1] al pubblico: Per esempio, in Machines of Loving Grace, l'amministratore delegato di Anthropic Dario Amodei dice che le IA super-potenti sono come "un Paese di geni in un data center" e spiega un sacco di fantastici vantaggi per la salute, la ricchezza, la pace e il senso che queste menti potrebbero dare all'umanità. Conclude dicendo: