Come può un'IA addestrata solo su dati umani superare gli esseri umani?
Forse imparando abilità generali e implementandole meglio.
Deep Blue era in grado di giocare a scacchi molto meglio di qualsiasi dei suoi programmatori alla IBM. Come è stato possibile costruire una macchina più intelligente degli umani nel dominio degli scacchi? Creando un'IA che facesse alcune delle stesse cose che loro cercavano di fare nelle partite di scacchi (come considerare molteplici modi possibili in cui la partita potrebbe svolgersi), ma molto più rapidamente e accuratamente.
Allo stesso modo, un'IA potrebbe imparare a superare gli esseri umani in ogni tipo di abilità. Potrebbe imparare modelli di pensiero che contribuiscono alle capacità di ragionamento generale, e poi applicare quelle capacità generali più velocemente e con un tasso di errore inferiore.
Potrebbe anche commettere meno passi falsi mentali del tipo a cui gli esseri umani sono inclini. Questo potrebbe accadere perché quei passi falsi sono stati eliminati dall'IA durante l'addestramento, o perché il meccanismo nell'IA che prevede i passi falsi umani non era esso stesso incline agli stessi passi falsi. O forse all'IA alla fine è stato dato il potere di automodificarsi e ha rimosso la sua propensione ai passi falsi; o forse alla fine le è stato chiesto di progettare un'IA più intelligente e ne ha progettata una che commetteva meno passi falsi; o il suo addestramento le ha insegnato a fare meno errori in qualche altro modo.
La capacità di avere intuizioni completamente nuove non deriva da qualche profonda scintilla atomica — è costruita da parti banali, come lo sono tutte le cose profonde. Uno studente può, in linea di principio, osservare il proprio insegnante e imparare qualsiasi tipo di cosa stia facendo, poi avere un lampo di intuizione e riuscire a fare quelle cose più velocemente o meglio. Oppure uno studente potrebbe riutilizzare diverse tecniche apprese da un insegnante per trovare un modo completamente nuovo di generare le proprie intuizioni.
Siamo stati abbastanza fortunati da avere prove osservative dirette di entrambi i punti, nel caso di AlphaGo, di cui abbiamo discusso sopra. AlphaGo è stato addestrato estensivamente su dati umani, ma è stato in grado di giocare a Go meglio dei migliori umani. (E AlphaGo Zero, che ha imparato solo dal gioco ontro se stesso (e nessun dato umano), è riuscito ad andare ancora più lontano.)
Questo non ci sembra un mondo in cui i dati umani siano la limitazione chiave (come abbiamo argomentato altrove), rispetto alle limitazioni reali che sono cose come l'architettura dell'IA, o la poteza di calcolo che è in grado di usare prima di giocare.
Gli studenti possono superare i loro maestri.
Forse con qualsiasi altro metodo che funzioni. Il successo spesso richiede tali abilità, quindi la discesa del gradiente le troverà.
Comprendere il mondo è necessario per prevedere le parole umane, come abbiamo visto in "Le IA sono solo in grado di ripetere a pappagallo quello che dicono gli umani?"
Per fare un esempio fantasioso: alla fine del 1500, l'astronomo Tycho Brahe raccolse meticolosamente osservazioni delle posizioni dei pianeti nel cielo notturno. I suoi dati furono essenziali per il lavoro di Johannes Kepler, che scoprì il modello ellittico del moto planetario, che ispirò la teoria della gravitazione di Newton. Ma Brahe stesso non capì mai le leggi che governano i pianeti.
Immaginate un'IA addestrata solo su testi prodotti fino all'anno 1601, che non abbia mai sentito parlare di Brahe ma debba prevedere ogni punto dati che Brahe scribacchiava nel suo diario. Brahe continuava a registrare la posizione di Marte ogni sera, quindi l'IA avrebbe prestazioni migliori quanto più accuratamente prevedesse la posizione di Marte. La discesa del gradiente rafforzerebbe qualsiasi parte all'interno dell'IA che fosse capace di capire esattamente quando Marte sembra girarsi (dalla prospettiva di Brahe) e attraversare il cielo all'indietro.
Non importa che Brahe non sia mai riuscito a capire quella legge della natura. Il semplice obiettivo di addestramento "prevedere quale sarà la prossima posizione di Marte che Brahe scriverà" è il tipo di obiettivo di addestramento che rafforzerebbe qualsiasi parte nell'IA abbastanza intelligente da capire come si muovono i pianeti.
Se continuassimo ad addestrare e addestrare e addestrare quell'IA finché non facesse sempre meglio nel prevedere cosa Brahe avrebbe scritto alla fine del 1500, quell'IA avrebbe ogni ragione per sviluppare intuizioni scientifiche che Brahe non avrebbe mai potuto avere. Un'IA farà meglio nel suo compito di prevedere gli umani se diventa più intelligente degli umani che sta prevedendo, perché a volte gli umani documentano fenomeni che loro stessi non possono prevedere perfettamente.
C'è poi un'altra questione: se le moderne architetture, i processi di addestramento e i dati siano sufficienti affinché le IA superino i loro insegnanti. I modelli linguistici di grandi dimensioni moderni potrebbero non essere ancora arrivati a quel punto. Ma non c'è alcun ostacolo teorico all'idea stessa di superare il proprio insegnante. Addestrare un'IA a prevedere gli esseri umani è sufficiente per permetterle di superarci, in linea di principio.
Notes
[1] superare i loro maestri: Da quando è stata scritta questa risposta, sono emersi i primi segnali che le IA moderne possono svolgere lavoro matematico inedito e superare i matematici umani in alcuni modi. Si potrebbe dire che queste IA stiano semplicemente imparando le tecniche umane per poi applicarle con maggiore coerenza, tenacia o rapidità; ma, dopotutto, questo è un modo in cui gli studenti possono superare i loro maestri, se le competenze che apprendono sono sufficientemente flessibili e generali. Le competenze che le IA apprendono mentre scriviamo non sembrano ancora abbastanza generali da permettere loro di battere i migliori esseri umani nella ricerca più visionaria, ma stanno certamente superando dei limiti che un tempo erano considerati importanti.