¿Superará la IA los umbrales críticos y despegará? | Si alguien la crea, todos moriremos | If Anyone Builds It, Everyone Dies

¿Superará la IA los umbrales críticos y despegará?

Probablemente.

Desde algunos puntos de vista, el progreso de la IA moderna parece incremental.* Por ejemplo, hasta el verano de 2025, la capacidad de la IA para completar tareas largas ha seguido aproximadamente una curva exponencial en los últimos años, y se podría argumentar que esto es reconfortantemente incremental. ¿Significa eso que el progreso de la IA será agradable, lento y predecible?

No necesariamente. El hecho de que una cantidad aumente de forma lenta, suave o incremental no significa que los resultados sean siempre moderados. La fisión nuclear ocurre en un continuo, pero hay una diferencia bastante grande entre una reacción nuclear en cadena que produce menos de un neutrón por neutrón (en la que la reacción se agota) y una reacción nuclear en cadena que produce más de un neutrón por neutrón (que produce una reacción en cadena descontrolada).

Pero no hay una diferencia marcada en la mecánica subyacente entre los dos tipos de reacciones nucleares. Si añades un poco más de uranio, el «factor de multiplicación de neutrones» pasa suavemente de justo por debajo de uno a justo por encima de uno. Las reacciones supercríticas no son causadas por neutrones que golpean los átomos de uranio con tanta fuerza que crean superneutrones. Un poco más de la misma materia subyacente provoca un gran cambio macroscópico. Esto se denomina «efecto umbral».

El caso de los seres humanos frente a los chimpancés parece ser evidencia de que existe al menos un efecto umbral en lo que respecta a la inteligencia. Los seres humanos no son tan diferentes anatómicamente de otros animales. El cerebro humano y el cerebro de un chimpancé son muy similares en su interior; ambos tenemos una corteza visual, una amígdala y un hipocampo. Los seres humanos no tienen un módulo «de ingeniería» especial adicional que explique por qué pueden ir a la Luna y ellos no.

Hay algunas diferencias en el cableado, y tenemos una corteza prefrontal más desarrollada que otros primates. Pero a nivel de anatomía general, la principal diferencia es que nuestros cerebros son tres o cuatro veces más grandes. Básicamente, estamos ejecutando una versión más grande y ligeramente mejorada del mismo hardware.

Y los cambios no fueron repentinos en nuestro linaje. Los cerebros de nuestros antepasados simplemente se hicieron un poco más grandes y un poco mejores, paso a paso. Eso fue suficiente para que se abriera rápidamente una enorme brecha cualitativa (en la escala de tiempo de la evolución).

Si puede suceder con los seres humanos, probablemente también pueda suceder con la IA.

No sabemos cuán lejos están las IA de los umbrales.

Si supiéramos exactamente qué sucedió en los seres humanos que nos permitió cruzar el umbral hacia la inteligencia general, tal vez sabríamos qué buscar para saber que algún umbral crítico está cerca. Pero, como veremos en el capítulo 2, no tenemos ese nivel de comprensión de la inteligencia. Por lo tanto, estamos volando a ciegas, sin tener idea de dónde están los umbrales ni de cuán cerca estamos de ellos.

Los recientes avances en IA se han traducido en una mayor capacidad para resolver problemas matemáticos y jugar al ajedrez, pero no han sido suficientes para que las IA lleguen «hasta el final». Quizás lo único que se necesita es un modelo que sea tres o cuatro veces más grande, como la diferencia entre el cerebro de un chimpancé y el de un humano. ¡O quizás no! Quizás se necesite una arquitectura completamente diferente y una década de avances científicos, como los chatbots modernos, que provienen de una arquitectura novedosa inventada en 2017 (y que maduró en 2022).

¿Qué cambios en el cerebro humano nos llevaron a cruzar un umbral crítico? Quizás fue nuestra capacidad para comunicarnos. Quizás fue nuestra capacidad para comprender conceptos abstractos de una manera que hizo que la comunicación fuera tan valiosa. Quizás estemos pensando en términos totalmente erróneos y el cambio clave haya sido algo extraño que hoy en día ni siquiera se nos ocurre. Quizás fue una gran combinación de factores, en la que cada uno de ellos tenía que estar lo suficientemente maduro como para que todos juntos pudieran dar lugar al tipo de inteligencia capaz de llevar a los humanos a la Luna.

No lo sabemos. Y como no lo sabemos, no podemos mirar una IA moderna y saber qué tan cerca o lejos está de ese mismo umbral crítico.

Los albores de la ciencia y la industria cambiaron radicalmente la civilización humana. Los albores del lenguaje pueden haber tenido consecuencias similares para nuestros antepasados. Pero si es así, no hay garantía de que cualquiera de esas capacidades actúe como un «umbral crítico» para la IA, porque, a diferencia de los humanos, las IA tenían desde el principio cierto conocimiento del lenguaje, la ciencia y la industria.

O tal vez el umbral crítico para la humanidad fue una combinación de muchos factores, en la que todos y cada uno de ellos tenían que ser «lo suficientemente buenos» para que todo el sistema encajara. Las IA podrían quedarse atrás en algunas capacidades en las que los homínidos eran mejores, como la memoria a largo plazo, pero seguirían mostrando un salto importante en su capacidad práctica una vez que la última pieza encajara en su sitio.

Incluso si ninguna de esas analogías entre la IA y los humanos resultara cierta, es probable que existan otras dinámicas que hagan que el progreso de la IA sea irregular y difícil de predecir.

Quizás los déficits en la memoria a largo plazo y el aprendizaje continuo estén frenando a la IA de una manera que nunca obstaculizó a los humanos. Quizás, una vez que se solucionen esos problemas, algo «haga clic» y la IA parezca obtener una «chispa» de inteligencia.

O (como se analiza en el libro) consideremos el punto en el que las IA puedan crear IA más inteligentes, que a su vez creen IA aún más inteligentes, en un bucle de realimentación. Los bucles de realimentación son una causa común de los efectos umbral.

Por lo que sabemos, hay una docena de factores diferentes que podrían servir como la «pieza que falta», de modo que, una vez que un laboratorio de IA descubra esa última pieza del rompecabezas, su IA realmente comenzará a despegar y a separarse del resto, como lo hizo la humanidad del resto de los animales. Los momentos críticos podrían llegarnos rápidamente, y quizás no tengamos mucho tiempo para prepararnos.

La velocidad de despegue no afecta el resultado, pero la posibilidad de un despegue rápido significa que debemos actuar pronto.

En última instancia, los umbrales no importan demasiado para el argumento de que si alguien construye una superinteligencia artificial, todos moriremos. Nuestros argumentos no requieren que alguna IA descubra cómo mejorarse recursivamente a sí misma y luego se convierta en superinteligente a una velocidad sin precedentes. Eso podría suceder, y creemos que es bastante probable que suceda, pero no importa para la afirmación de que la IA está en camino de matarnos a todos.

Todo lo que requieren nuestros argumentos es que las IA sigan mejorando cada vez más en la predicción y el control del mundo, hasta que nos superen. No importa mucho si eso ocurre de forma rápida o lenta.

La relevancia de los efectos umbral radica en que aumentan la importancia de que la humanidad reaccione pronto ante la amenaza. No podemos permitirnos el lujo de esperar hasta que la IA sea un poco mejor que cualquier ser humano en todas las tareas mentales, porque para entonces podría ser que no quedara mucho tiempo. Sería como ver a los primeros homínidos haciendo fuego, bostezar y decir: «Despiértenme cuando estén a mitad de camino hacia la Luna».

Los homínidos tardaron millones de años en recorrer la mitad del camino hasta la Luna y dos días en completar el resto del viaje. Cuando puede haber umbrales involucrados, hay que prestar atención antes de que las cosas se salgan visiblemente de control, porque para entonces podría ser demasiado tarde.

* Desde otros puntos de vista, parece bastante discontinuo. La victoria de AlphaGo sobre Lee Sedol en el juego del Go supuso una sorpresa para el mundo, a pesar de que los investigadores pueden trazar a posteriori un gráfico que muestra cómo los diferentes métodos de IA fueron mejorando en segundo plano durante todo ese tiempo. Lo mismo ocurre con la revolución de los LLM: los investigadores pueden trazar gráficos que muestren que la arquitectura del transformador no supuso un avance tan grande en comparación con las arquitecturas de la competencia, pero el resultado práctico es que las IA se han vuelto cualitativamente más útiles. Pero dejemos ese punto de vista a un lado por ahora.

Al menos, según las mediciones de METR, un instituto dedicado a la evaluación de modelos de IA y la investigación de amenazas, que publicó algunos de sus resultados en su blog en marzo de 2025.

El crecimiento exponencial no es precisamente reconfortante, en este caso. Si las bacterias de una placa de Petri se duplican cada hora, tardarán uno o dos días en hacerse visibles a simple vista y, a partir de entonces, solo unas horas en cubrir toda la placa. Para cuando te das cuenta del fenómeno, la mayor parte del tiempo ya ha pasado. Como dice el dicho: solo hay dos formas de reaccionar ante un cambio exponencial: demasiado pronto o demasiado tarde. Pero, en cualquier caso, la curva es, al menos, bastante suave y predecible.

Notes

[1] tres o cuatro veces más grande: A las IA no les lleva mucho tiempo multiplicar su tamaño por tres o cuatro. En su lanzamiento oficial completo, GPT-2 tenía alrededor de 1500 millones de parámetros. GPT-3 tenía 175 000 millones de parámetros. Que nosotros sepamos, aún no se ha publicado el recuento oficial de parámetros de GPT-4, pero es poco probable que sea menor que el de su predecesor; una estimación no oficial lo situaba en unos 1,8 billones de parámetros. En otras palabras: la IA se ha multiplicado por mil en un periodo de cuatro años.

¿Tu pregunta no fue respondida aquí?Envía una pregunta.