L'"intelligenza" è una semplice quantità scalare?
No. Ma ci sono livelli che l'IA non ha ancora raggiunto.
A volte abbiamo sentito dire che l'idea di superintelligenza presuppone che l'"intelligenza" sia una quantità semplice e unidimensionale. Più ricerca sull'IA fai, più "intelligenza" ottieni, come se l'intelligenza fosse meno simile a una macchina e più simile a un fluido che puoi continuare a pompare dal terreno.
Siamo d'accordo con la critica di fondo: l'intelligenza non è una semplice quantità scalare. Potrebbe non essere sempre semplice costruire IA più intelligenti semplicemente aggiungendo più hardware di calcolo al problema (anche se, se l'ultimo decennio è un buon indicatore, a volte lo sarà). Una maggiore intelligenza non sempre si traduce direttamente in un maggiore potere. Il mondo è complicato e le capacità possono incontrare ostacoli e plateau.
Ma, come abbiamo detto nel Capitolo 1, l'esistenza di complicazioni, limiti e ostacoli non significa che l'IA si arresterà opportunamente vicino al range di capacità umane. I cervelli biologici hanno dei limiti che non ci sono nell'IA, come abbiamo detto nel libro.
L'intelligenza umana ha molti limiti, eppure ci ha portato sulla luna. L'intelligenza animale non è una quantità scalare univocamente definita, eppure gli esseri umani sono in grado di surclassare gli scimpanzé. Per quanto l'intelligenza sia complessa, c'è un divario chiaro e qualitativo tra noi e gli scimpanzé.
Anche le superintelligenze artificiali potrebbero avere dei limiti e delle complicazioni, ma potrebbero comunque surclassare gli esseri umani. Potrebbe comunque aprirsi un divario qualitativo tra loro e noi, se i ricercatori e gli ingegneri continuano a gareggiare per creare IA sempre più capaci.
Notes
[1] abbiamo sentito dire: Per un esempio di una simile critica, si veda l'articolo di Ernest Davis Linee guida etiche per una superintelligenza.