¿Cómo podría una IA entrenada únicamente con datos humanos superar a los humanos?
Quizás aprendiendo habilidades generales e implementándolas mejor.
Deep Blue era capaz de jugar al ajedrez mucho mejor que cualquiera de sus programadores en IBM. ¿Cómo era posible que la gente construyera una máquina que fuera más inteligente que ellos en el dominio del ajedrez? Creando una IA que hiciera algunos de los mismos tipos de cosas que ellos intentaban hacer en las partidas de ajedrez (como considerar múltiples formas posibles en que podía desarrollarse la partida), pero de manera mucho más rápida y precisa.
Del mismo modo, una IA podría aprender a ser mejor que los humanos en todo tipo de habilidades. Podría aprender patrones de pensamiento que contribuyen a las habilidades de razonamiento general, y luego llevar a cabo esas habilidades generales más rápido y con una menor tasa de error.
También podría cometer menos «pasos en falso» mentales del tipo que los humanos son propensos a cometer. Esto podría deberse a que esos pasos en falso se eliminaron de la IA en algún momento, o a que la maquinaria subyacente de la IA que predice los pasos en falso «humanos» nunca fue propensa a cometerlos. O tal vez a la IA se le concedió finalmente el poder de automodificarse y eliminó su propensión a los pasos en falso; o tal vez se le encomendó finalmente la tarea de diseñar una IA más inteligente y diseñó una que cometía menos pasos en falso; o su entrenamiento le enseñó a cometer menos errores de alguna otra manera.
La capacidad de tener ideas totalmente novedosas no proviene de una profunda chispa atómica, sino que se construye a partir de partes mundanas, como todas las cosas profundas. En principio, un estudiante puede observar a su profesor y aprender todo lo que hace, y luego tener una chispa de inspiración y ser capaz de hacer esas cosas más rápido o mejor. O un estudiante podría reutilizar diferentes técnicas que aprendió de un profesor para encontrar una forma totalmente novedosa de generar sus propias ideas.
Hemos tenido la suerte de contar con evidencia observacional directa de ambos puntos, en el caso de AlphaGo, que hemos comentado anteriormente. AlphaGo fue entrenado exhaustivamente con datos humanos, pero fue capaz de jugar al Go mejor que los mejores humanos. (Y AlphaGo Zero, que aprendió jugando contra sí mismo (y sin datos humanos), llegó aún más lejos).
Esto no nos parece un mundo en el que los datos humanos sean la limitación clave (como hemos argumentado en otra parte), en comparación con las limitaciones reales, que son cosas como la arquitectura de la IA o la cantidad de cómputo que es capaz de utilizar antes de jugar.
El alumno puede superar al maestro.
Quizás por cualquier otro método que funcione. El éxito a menudo requiere tales habilidades, por lo que el descenso de gradiente las encontrará.
Predecir las palabras humanas requiere comprender el mundo, como ya comentamos en «¿Acaso las IA solo son capaces de repetir como loros lo que dicen los humanos?».
Por poner un ejemplo ilustrativo: a finales del siglo XVI, el astrónomo Tycho Brahe recopiló minuciosamente observaciones de las posiciones planetarias en el cielo nocturno. Sus datos fueron fundamentales para el trabajo de Johannes Kepler, quien descubrió el patrón elíptico del movimiento planetario, lo que inspiró la teoría de la gravitación de Newton. Pero el propio Brahe nunca descubrió las leyes que rigen los planetas.
Imaginemos una IA entrenada únicamente con textos producidos hasta el año 1601, que nunca hubiera oído hablar de Brahe, pero que tuviera que predecir cada punto de datos que Brahe anotó en su diario. Brahe seguía registrando la posición de Marte cada noche, por lo que la IA funcionaría mejor cuanto más precisa fuera su predicción de la ubicación de Marte. El descenso de gradiente reforzaría cualquier parte dentro de la IA que fuera capaz de averiguar exactamente el momento en que Marte parecería dar la vuelta (desde la perspectiva de Brahe) y desplazarse hacia atrás en el cielo.
No importa que Brahe nunca lograra descubrir esa ley de la naturaleza. El simple objetivo del entrenamiento «predecir qué posición de Marte anotará Brahe a continuación» es el tipo de objetivo de entrenamiento que reforzaría cualquier parte de la IA que fuera lo suficientemente inteligente como para descubrir cómo se mueven los planetas.
Si siguieras entrenando y entrenando y entrenando esa IA hasta que predijera cada vez mejor lo que Brahe anotaría a finales del siglo XVI, esa IA podría desarrollar los conocimientos científicos que Brahe nunca pudo. Una IA será mejor en su tarea de predecir a los humanos si se vuelve más inteligente que los humanos que está prediciendo, porque a veces los humanos anotan registros de fenómenos que ellos mismos no pueden predecir perfectamente.
Existe una cuestión separada sobre si las arquitecturas, los procesos de entrenamiento y los datos modernos son suficientes para que las IA superen a sus maestros. Es posible que los LLM modernos aún no hayan llegado a ese punto. Pero no existe ningún impedimento teórico para la posibilidad de superar a nuestros maestros. Entrenar a una IA para predecir a los humanos es suficiente para permitirle superarnos, en principio.
Notes
[1] superar al maestro: Desde que redactamos esta respuesta, han surgido los primeros indicios de que las IA modernas pueden realizar trabajos matemáticos novedosos y superar a los matemáticos humanos en algunos aspectos. Se podría decir que estas IA solo están aprendiendo técnicas humanas y luego las aplican de manera más consistente, tenaz o rápida, pero, bueno, esa es una forma en que los alumnos pueden superar a sus maestros, si las habilidades que aprenden son lo suficientemente flexibles y generales. Las habilidades que las IA aprenden mientras escribimos esto no parecen lo suficientemente generales como para que puedan superar a los mejores humanos en la investigación más visionaria, pero las IA ciertamente están cruzando líneas que antes se consideraban importantes.