L'IA ci tratterà come i suoi "genitori"? | Prima che sia troppo tardi: perché la superintelligenza artificiale è una minaccia per l’uminità | If Anyone Builds It, Everyone Dies

L'IA ci tratterà come i suoi "genitori"?

Sembra alquanto improbabile.

Una speranza che abbiamo sentito riguardo all'IA è che potrebbe trattare bene l'umanità perché ci considera i suoi "genitori". Purtroppo, questa speranza sembra mal riposta.

Per prima cosa, l'amore filiale e la responsabilità sembrano essere altamente contingenti ai dettagli della nostra storia evolutiva.

Quasi tutti i mammiferi e gli uccelli si prendono cura dei loro piccoli, ma solo in poche specie, tra cui gli esseri umani, i figli si prendono cura dei loro genitori. La responsabilità filiale non è nemmeno universale tra i primati, tanto meno nel regno animale in generale. Le IA create con la discesa del gradiente potrebbero avere ancora meno in comune con gli esseri umani, poiché le IA non hanno alcun legame evolutivo o anatomico con gli esseri umani.

Nel caso degli esseri umani, la responsabilità filiale è fortemente correlata ai sistemi di allevamento cooperativo, in cui i figli adulti restano con le loro famiglie e aiutano a prendersi cura dei fratelli e degli altri membri della famiglia allargata.

Molti fattori hanno contribuito a far sì che gli esseri umani si prendano cura dei propri genitori:

  • Essendo mammiferi, gli ominidi investono molto nei propri figli.
  • A causa delle dimensioni e del costo dei nostri cervelli, gli ominidi hanno un'infanzia molto più lunga rispetto alla maggior parte degli altri mammiferi e quindi investono ancora di più nei propri figli.
  • Gli ominidi traggono vantaggio dalle grandi strutture di gruppo per una varietà di ragioni:
    • Difesa contro i grandi predatori
    • Caccia coordinata di grandi prede e condivisione di altri cibi deperibili
    • L'opportunità di apprendere l'uso degli strumenti e altre abilità per imitazione
  • Prima di raggiungere la maturità, gli ominidi hanno una notevole capacità di aiutare gli altri, ad esempio fornendo assistenza ai bambini o svolgendo altre forme di lavoro di base.
  • Gli ominidi anziani hanno anche la capacità di prendersi cura dei bambini, soprattutto trasmettendo loro conoscenze fondamentali.
  • Quindi, gli ominidi che si prendevano cura dei loro genitori avevano un vantaggio genetico, sia aiutando indirettamente i loro fratelli, sia avendo nonni che, a loro volta, potevano aiutare i loro nipoti.
  • Anche le culture che promuovevano la responsabilità filiale avevano un vantaggio, per lo stesso motivo.

Nessuna di queste cose è probabilmente vera per l'IA.

E anche se tutte fossero vere, potrebbe non essere sufficiente in pratica, poiché potrebbero emergere numerosi altri fattori rilevanti, come le variazioni caotiche nel modo in cui le IA riflettono su loro stesse. E, ancora una volta, la responsabilità filiale decisamente non è la norma nel regno animale.

Un modo in cui le persone immaginano che l'IA possa acquisire un senso di responsabilità filiale è che venga addestrata su un enorme corpus di dati umani e interagisca molto con gli esseri umani, così che forse le preferenze umane possano in qualche modo "trasferirsi" all'IA.

Non ci aspettiamo che questo funzioni. Ci aspettiamo che le preferenze dell'IA siano in qualche modo correlate a quelle umane, ma in modo tangenziale, strano e complicato — come nella discussione alla fine del Capitolo 4, dove esploriamo mondi con quantità sempre maggiori (e sempre più realistiche) di complessità nel legame tra le preferenze umane e quelle dell'IA.

Si veda anche la discussione su crescere le IA con amore e avere l'aspettativa che si comportino bene, motivazioni strane e non intenzionali nelle attuali IA e "Le IA non si preoccuperanno almeno un po' degli esseri umani?".

Probabilmente sarebbe un male se lo facessero.

Se, contro ogni probabilità, per una ragione o per l'altra un'IA sviluppasse qualcosa di simile alla responsabilità filiale, probabilmente saremmo in grossi guai.

Un'IA può essere abbastanza intelligente da capire esattamente cosa intendono gli esseri umani per "responsabilità filiale", pur avendo una sua versione molto diversa di responsabilità filiale a cui essa tiene.

Gli esseri umani sono stati "addestrati" dalla selezione naturale a massimizzare la nostra idoneità riproduttiva. Ma quasi tutte le cose a cui teniamo sono correlati all'idoneità — dell'idoneità in sé ci importa poco o nulla.

Allo stesso modo, un'IA incoraggiata ad "amare i propri genitori" finirebbe probabilmente, nella migliore delle ipotesi, per sviluppare complicati correlati di responsabilità filiale.

Un'IA potrebbe tenere profondamente ai suoi creatori... ma non in un modo che dia valore alla nostra esperienza soggettiva. Nel linguaggio del Capitolo 4, anche "una semplice complicazione" porta a versioni del "preoccuparsi di noi" che assomigliano a congelarci nell'ambra, o mantenere in vita gli esseri umani contro la loro volontà, o impedirci di riprodurci e dare all'ultima generazione di esseri umani un ambiente modestamente confortevole mentre l'IA si prende il resto dell'universo per sé. O qualcosa di molto più strano.

Non sembra possibile prevedere quale sarebbe il risultato effettivo. Ma ci aspetteremmo che sia, semmai, ancora più strano e meno attraente di queste opzioni.*

* Di nuovo, si veda "Le IA non si preoccuperanno almeno un po' degli esseri umani?" per una discussione correlata.

La tua domanda non ha trovato risposta qui?Invia una domanda.