ChatGPT non è già un'intelligenza generale?
Se volete, potete definirla così.
ChatGPT e i suoi simili sono più generali rispetto alle IA che li hanno preceduti. Sono capaci di fare un po' di matematica, scrivere poesie e codice. ChatGPT non sempre riesce a fare queste cose bene (agosto 2025), ma è in grado di fare moltissime cose.
È ragionevole supporre che GPT-5 sia ancora meno generale nel ragionamento rispetto a un bambino umano. Certo, può recitare da un numero maggiore di manuali. Ma è plausibile che abbia memorizzato un volume molto maggiore di strutture superficiali rispetto a quelle che userebbe un bambino umano, mentre un bambino usa plausibilmente ingranaggi mentali più profondi per completare compiti simili (con risultati migliori in alcuni casi e peggiori in altri).
Se noi autori fossimo costretti a confrontare i due, diremmo che ChatGPT sembra generalmente più stupido in un senso profondo rispetto a un essere umano, e non solo perché (mentre scriviamo questa frase nel luglio 2025) i chatbot hanno memorie episodiche limitate.
Ci sono sicuramente alcune persone che ribatterebbero: "Cosa intendete? ChatGPT sa parlare, sa fare conversazioni emotivamente profonde con me, sa risolvere problemi matematici avanzati e scrivere codice, cose che molti esseri umani non sanno fare. Chi può dire che sia più stupido di un essere umano?". Dieci anni fa non ci saremmo mai trovati di fronte a una conversazione del genere, il che dà qualche indicazione sui progressi compiuti da allora.
Forse il mondo è a metà strada tra "Le IA sono chiaramente più stupide degli esseri umani" e "Dipende da cosa chiedi all'IA di fare".
Forse per coprire la distanza che resta basta semplicemente aumentare ancora un po’ la scala, un po' come per il cervello umano, che sembra sostanzialmente simile a quello degli scimpanzé ma è tre o quattro volte più grande. O forse l'architettura alla base di ChatGPT è troppo superficiale per supportare la "scintilla" della generalità.
Forse c'è qualche componente importante dell'intelligenza generale che gli algoritmi moderni di IA non riescono a gestire, e le IA moderne compensano questo limite applicando enormi quantità di pratica e memorizzazione a quei tipi di compiti che possono essere risolti con della pratica intensa e ripetitiva. In questo caso, forse basta una sola brillante (e anche incredibilmente stupida) invenzione algoritmica per colmare tale deficit, e poi le IA saranno in grado di comprendere la maggior parte delle cose che un essere umano può capiree e di imparare dall'esperienza in modo efficiente quanto un essere umano. (Pur continuando a essere in grado di leggere e memorizzare tutto l'Internet.) O forse ci vorranno altre quattro scoperte algoritmiche. Nessuno lo sa, come discusso nel capitolo 2.
Ci sono molte cose diverse che si possono intendere con "intelligenza generale".
Quando si dice "le IA ora sono generalmente intelligenti", qualcuno potrebbe intendere che le IA abbiano acquisito quella combinazione di abilità, ancora poco compresa, che ha fatto scatenare il caos nella forma dei una civiltà umana.
Oppure potrebbe significare che l'IA è arrivata almeno al punto in cui le persone ora discutono con veemenza se siano più intelligenti gli esseri umani o le IA.
Oppure si potrebbe pensare a un momento in cui le persone avranno smesso di discutere, perché sarà chiaro che le IA sono decisamente e in generale più intelligenti di qualsiasi essere umano. O a un momento in cui le persone avranno smesso di discutere, perché non ci sarà più nessuno con cui discutere; l'umanità si sarà spinta troppo oltre e l'IA avrà messo fine a tutte le nostre discussioni e ai nostri sforzi.
Non c'è stato un giorno e un'ora precisi in cui si possa dire che le IA "abbiano iniziato a giocare a scacchi a livello umano". Ma quando le IA scacchistiche sono riuscite a schiacciare il campione mondiale umano, quel momento era già passato.
Tutto questo per dire che la risposta alla domanda "ChatGPT è generalmente intelligente?" potrebbe essere sì o no, a seconda di cosa si intende esattamente con la domanda. (E questo testimonia in modo chiaro i progressi dell'IA negli ultimi anni! Deep Blue era chiaramente piuttosto specializzato.)
La superintelligenza è una distinzione più importante.
Visto che ci sono diverse cose che "intelligenza di livello umano" potrebbe ragionevolmente significare, di solito eviteremo di usare questa terminologia, tranne quando parliamo di IA superumana. Questo è anche il motivo per cui di solito evitiamo di dire "intelligenza artificiale generale". Se dobbiamo parlare di una di queste idee, la spiegheremo in modo più dettagliato.
Useremo termini come "IA più intelligente dell'uomo", "IA superumana" o "superintelligenza", che presuppongono un qualche tipo di punto di riferimento umano:
Con "IA più intelligente dell'uomo" o "IA superumana" (qui e nel libro), intendiamo un'IA che possiede quella "scintilla di generalità" che distingue gli esseri umani dagli scimpanzé e che è chiaramente migliore, nel complesso, dei singoli esseri umani più intelligenti nel risolvere problemi e capire cosa è vero.
L'IA superumana potrebbe essere solo leggermente più intelligente degli esseri umani più brillanti, e potrebbero esserci alcuni compiti in cui questi ultimi continuano a ottenere risultati migliori. Tuttavia, qui e nel libro, supporremo che "IA più intelligente dell'uomo" significhi almeno che, in un confronto equo su un'ampia gamma di compiti complessi, l'IA otterrebbe risultati migliori rispetto agli esseri umani più competenti, in tutti i tipi di compiti difficili.
Con "IA superintelligente" o "superintelligenza artificiale" (SIA), invece, intendiamo un'IA superumana che supera di gran lunga l'intelligenza umana. Assumiamo che i singoli esseri umani e i gruppi di esseri umani nel mondo reale siano completamente incapaci di competere con l'IA superintelligente in qualsiasi ambito di importanza pratica, per i motivi discussi nel capitolo 6.
Il libro userà principalmente i termini "superumano" e "superintelligente" in modo intercambiabile. La distinzione diventa più rilevante nella Parte II, dove descriviamo uno scenario di conquista del potere da parte dell'IA in cui le IA iniziano con un'intelligenza debolmente superiore a quella umana, ma non superintelligente. Questo aiuta a illustrare il fatto che la superintelligenza è plausibilmente eccessiva: l'IA potrebbe diventare superintelligente presto, ma non ha bisogno di essere così intelligente per causare l'estinzione umana.
Queste sono definizioni molto approssimative, ma sono sufficienti per gli scopi di questo libro.
Questo libro non propone una teoria complessa dell'intelligenza, per poi dedurne qualche implicazione esoterica che preannuncia il disastro. Invece, opereremo a un livello piuttosto basilare, con affermazioni come:
- A un certo punto, l'IA probabilmente raggiungerà pienamente qualsiasi cosa sia che permette agli esseri umani (e non agli scimpanzé) di costruire razzi, centrifughe e città.
- A un certo punto, l'IA supererà gli esseri umani.
- Le IA potenti probabilmente avranno i propri obiettivi che perseguiranno con tenacia, perché perseguire con tenacia gli obiettivi è utile per un'ampia gamma di lavori (e, ad esempio, gli esseri umani hanno sviluppato obiettivi proprio per questo motivo).
Affermazioni come queste, giuste o sbagliate che siano, non dipendono dal fatto che abbiamo una comprensione speciale di tutti i meccanismi interni dell'intelligenza. Possiamo vedere il camion che si dirige verso di noi, anche senza appellarci a un modello complicato del suo funzionamento interno. O almeno così sosterremo.
E argomentazioni semplici come queste non dipendono dal fatto che ChatGPT sia "davvero" al livello umano o "davvero" un'intelligenza generale. Fa quello che fa. Le future IA faranno più cose e meglio. Il resto del libro parla di dove porterà questo percorso.