¿No es ChatGPT ya una inteligencia general?
Podríamos llamarlo así si quisiéramos.
ChatGPT y otros programas similares son más generales que las IA que los precedieron. Pueden hacer algunas operaciones matemáticas, escribir poesía y programar. ChatGPT no siempre puede hacer estas cosas bien (en agosto de 2025), pero puede hacer muchas cosas.
Es razonable suponer que GPT-5 sigue siendo menos general en su razonamiento que un niño humano. Es cierto que puede recitar más libros de texto, pero probablemente haya memorizado un volumen mucho mayor de patrones superficiales que los que utilizaría un niño humano, mientras que un niño probablemente utilice mecanismos mentales más profundos para completar tareas comparables (con mejores resultados en algunos casos y peores en otros).
Si los autores nos viéramos obligados a comparar ambos, diríamos que ChatGPT parece, en general, más tonto en un sentido profundo que un humano, y no solo porque (mientras escribimos esta frase en julio de 2025) los chatbots tengan una memoria episódica limitada.
Hay al menos algunas personas que responderían: «¿Qué quieres decir? ChatGPT puede hablar; puede tener conversaciones emocionales profundas conmigo; puede resolver problemas matemáticos avanzados y programar, algo que muchos humanos no pueden hacer. ¿Quién puede decir que es más tonto que un humano?». Esa no era una conversación a la que nos enfrentábamos hace diez años, lo que dice algo sobre cuánto ha avanzado desde entonces.
En la actualidad, el mundo se encuentra quizás a medio camino entre «las IA son claramente más tontas que los humanos» y «depende de lo que le pidas a la IA que haga».
Quizás lo que se necesita para recorrer la distancia restante es solo un poco más de escala, como ocurre con el cerebro humano, que es muy similar al cerebro de los chimpancés, pero tres o cuatro veces más grande. O quizás la arquitectura subyacente a ChatGPT es demasiado superficial para soportar la «chispa» de la generalidad.
Quizás haya algún componente importante de la inteligencia general que los algoritmos modernos de IA simplemente no pueden manejar, y las IA modernas lo compensan aplicando cantidades masivas de práctica y memorización a los tipos de tareas que se pueden resolver con práctica intensiva. En ese caso, tal vez solo se necesite un invento algorítmico brillante (y también increíblemente estúpido) para subsanar ese déficit, y las IA serán capaces de comprender la mayoría de las cosas que un humano puede comprender y aprender de la experiencia con la misma eficacia que un humano. (Sin dejar de ser capaces de leer y memorizar todo el Internet). O tal vez se necesiten cuatro avances algorítmicos más. Nadie lo sabe, como se explica en el capítulo 2.
Hay muchas cosas diferentes que se pueden entender por «inteligencia general».
Por «las IA ahora son generalmente inteligentes», alguien podría referirse a que las IA han adquirido esa combinación de habilidades poco comprendida que desató el infierno en forma de civilización humana.
O tal vez se refieran a que la IA ha avanzado al menos hasta el punto de que ahora la gente debate vehementemente sobre si los humanos o las IA son realmente más inteligentes.
O tal vez tengan en mente un momento en el que la gente haya dejado de discutir, porque está claro que las IA son, en general, mucho más inteligentes que cualquier humano. O un momento en el que la gente haya dejado de discutir, porque ya no queda nadie con quien discutir; la humanidad ha ido demasiado lejos y la IA ha puesto fin a todas nuestras discusiones y esfuerzos.
No hubo un día y una hora exactos en los que se pudiera decir que las IA «empezaron a jugar al ajedrez a nivel humano». Pero cuando las IA de ajedrez pudieron derrotar al campeón mundial humano, ese momento ya había pasado.
Todo esto quiere decir que la respuesta a «¿Es ChatGPT generalmente inteligente?» podría ser sí o no, dependiendo de lo que se entienda exactamente por la pregunta. (Lo que dice mucho sobre el progreso de la IA en los últimos años. Deep Blue era claramente bastante limitado).
La superinteligencia es una distinción más importante.
Dado que hay varias cosas diferentes que «inteligencia a nivel humano» podría significar razonablemente, procuramos no utilizar esa terminología, salvo cuando hablamos de IA superhumana. Esta es también la razón por la que solemos evitar decir «inteligencia artificial general». Si necesitamos hablar de alguna de esas ideas, la explicaremos con más detalle.
En cambio, sí utilizaremos términos como «IA más inteligente que los humanos», «IA superhumana» o «superinteligencia», que suponen algún tipo de referencia respecto a los humanos:
Por «IA más inteligente que los humanos» o «IA superhumana» (aquí y en el libro), nos referimos a una IA que tiene esa «chispa de generalidad» que separa a los humanos de los chimpancés y que es claramente mejor en general que los humanos más inteligentes a la hora de resolver problemas y descubrir qué es verdad.
La IA superhumana podría ser solo ligeramente más inteligente que los mejores humanos, y puede que haya algunas tareas en las que los mejores humanos sigan teniendo mejor desempeño. Pero asumiremos, aquí y en el libro, que «IA más inteligente que los humanos» significa al menos que una comparación justa a través de una amplia gama de tareas complicadas tendría a la IA con mejor desempeño que los humanos más competentes, en todo tipo de tareas difíciles.
Por «IA superinteligente» o «superinteligencia artificial» (SIA), nos referimos a una IA superhumana que supera por mucho a la inteligencia humana. Asumiremos que los seres humanos individuales y los grupos reales de seres humanos son completamente incapaces de competir con la IA superinteligente en cualquier ámbito de importancia práctica, por las razones que se presentan en el capítulo 6.
Este libro utilizará principalmente los términos «superhumana» y «superinteligente» de manera intercambiable. La distinción cobra mayor relevancia en la parte II, donde describimos un escenario de toma de poder por parte de la IA en el que las IA comienzan siendo solo un poco más inteligentes que los humanos, pero no superinteligentes. Esto ayuda a ilustrar que la superinteligencia quizás sea un exceso: la IA puede volverse superinteligente pronto, pero no necesita ser tan inteligente para causar la extinción humana.
Estas son definiciones muy generales, pero son suficientemente buenas para los propósitos de este libro.
Este no es un libro que proponga una teoría compleja de la inteligencia para luego deducir algunas implicaciones esotéricas de la teoría que presagian un desastre. En cambio, operaremos a un nivel bastante básico, con afirmaciones como:
- En algún momento, la IA probablemente alcanzará lo que sea que permite a los humanos (y no a los chimpancés) construir cohetes, centrifugadoras y ciudades.
- En algún momento, la IA superará a los humanos.
- Las IA poderosas probablemente tendrán sus propios objetivos que perseguirán obstinadamente, porque perseguir objetivos obstinadamente es útil para una amplia gama de tareas (y, por ejemplo, los humanos evolucionaron objetivos justo por esta razón).
Afirmaciones como esas, sean correctas o incorrectas, no dependen de que tengamos un conocimiento especial de todo el funcionamiento interno de la inteligencia. Podemos ver el camión que se dirige hacia nosotros, incluso sin apelar a un modelo complicado de los componentes internos del camión. O eso argumentaremos.
Y argumentos sencillos como estos no dependen de si ChatGPT es «realmente» de nivel humano o «realmente» una inteligencia general. Hace lo que hace. Las IA del futuro harán más cosas y mejor. El resto del libro analiza adónde conduce ese camino.