La inteligencia no es inefable | Si alguien la crea, todos moriremos | If Anyone Builds It, Everyone Dies

La inteligencia no es inefable

En años recientes, el campo de la IA ha progresado no profundizando nuestra comprensión de la inteligencia, sino encontrando maneras de «cultivar» la IA. Tras años de callejones sin salida y estancamiento en los intentos de entender la inteligencia misma, y con el éxito en el desarrollo de IA poderosas, algunas personas se preguntan si la idea de «comprender la inteligencia» es solo un espejismo. ¿Quizás no hay principios generales que entender? ¿O tal vez los principios son demasiado extraños o complicados para que los humanos los comprendan?

Otros sienten que debe haber algo especial y místico sobre la mente humana, algo demasiado sagrado para reducirlo a ecuaciones secas. Y puesto que la inteligencia aún no se comprende, quizás la verdadera inteligencia proviene de esta parte inefable del espíritu humano.

Nuestra propia perspectiva es bastante más mundana que eso. La inteligencia es un fenómeno natural, como cualquier otro. Y como muchos fenómenos en la biología, la psicología y otras ciencias, aún estamos en las etapas tempranas de nuestros intentos de comprenderla.

Muchas de las herramientas y conceptos básicos de la psicología y neurociencia modernas han existido por unas cuantas décadas. Puede sonar humilde decir: «La ciencia tiene sus límites, y este es quizás uno de ellos». Pero imagina decirle a alguien que crees que los científicos dentro de un millón de años no entenderán mucho sobre inteligencia más allá de lo que sabemos en 2025. En esos términos, afirmar que la inteligencia es inefable suena más arrogante que la alternativa.

La razón principal por la que nos importa esta pregunta es que incide en si la humanidad podría algún día construir una superinteligencia sin amenazar nuestra supervivencia. Argumentaremos, en el capítulo 11, que la IA actual se ve más como alquimia que como química. Pero ¿es siquiera posible que haya una «química» de la IA?

Dado que hoy en día no disponemos de los conocimientos científicos pertinentes, no es trivial establecer que una «química de la IA» es posible. Solo podemos conjeturar cómo sería una ciencia madura de la IA. Teniendo en cuenta lo lejos que estamos hoy en día de ello, es probable que muchos de los conceptos que utilizamos actualmente en la IA deban refinarse o sustituirse en el transcurso del progreso intelectual.

A pesar de ello, creemos que la inteligencia es inteligible en principio. No creemos que sea una conclusión especialmente difícil de alcanzar, aunque las investigaciones de las últimas décadas demuestran que la inteligencia no es fácil de entender.

Hay cuatro razones básicas por las que pensamos así:

  • Las afirmaciones de inefabilidad tienen un historial extremadamente pobre en las ciencias.
  • La inteligencia muestra estructura y regularidades.
  • Hay muchas cosas que aún no entendemos sobre la inteligencia humana que, en principio, deberían ser comprensibles.
  • Ya se han logrado algunos avances en la comprensión de la inteligencia.

Las afirmaciones de inefabilidad tienen un historial extremadamente pobre en las ciencias

Cuando la humanidad no entiende algo, a menudo puede parecer intimidante y profundamente misterioso. Puede ser difícil imaginar, o difícil de apreciar emocionalmente, cómo sería adquirir esa comprensión en el futuro.

Hubo un tiempo en que, entre filósofos y científicos, existía una creencia generalizada en el vitalismo, la idea de que los procesos biológicos nunca podrían reducirse a mera química y física. La vida parecía algo especial, algo incomparablemente distinto a los simples átomos y moléculas, a la simple gravedad y el electromagnetismo.

El error de los vitalistas ha sido muy común a lo largo de la historia. La gente se apresura a concluir que las cosas que hoy son misteriosas son intrínsecamente misteriosas, incognoscibles incluso en principio.

Si miras al cielo nocturno y lo único que percibes es un deslumbrante campo de luces centelleantes cuya naturaleza y leyes son desconocidas… ¿por qué creer que alguna vez podrías llegar a conocerlas? ¿Por qué sería eso un aspecto del futuro que fuera predecible?

Una lección clave de la historia es que la investigación científica puede desentrañar estos profundos enigmas. A veces, el misterio se resuelve rápidamente y, otras, lleva cientos de años. Pero cada vez parece más improbable que haya aspectos cotidianos de la vida humana, como la inteligencia, que nunca, ni siquiera en principio, puedan entenderse.

La inteligencia muestra estructura y regularidades

Supongamos que vivías hace miles de años, cuando incluso fenómenos como el «fuego» parecían misterios inefables. ¿Cómo podrías haber imaginado que algún día los seres humanos llegarían a comprender el fuego?

Una pista es que el fuego no era un fenómeno puntual. Ardía en muchos lugares diferentes y siempre de forma similar. Esto reflejaba un proceso estable, regular y compacto oculto bajo el «fuego», dentro de la realidad: las diferentes disposiciones posibles de la materia tenían diferentes energías potenciales químicas acumuladas, y al calentar la materia, esas configuraciones se rompían y se reformaban en configuraciones nuevas, más estrechamente unidas y con menor energía potencial, liberando la diferencia en forma de calor. El hecho de que puedas encender un fuego más de una vez sugiere que hay algún fenómeno repetitivo detrás que debe comprenderse, que el «fuego» no es como «los números ganadores exactos de la lotería de la semana pasada» en cuanto a lo mucho que hay de él que puede comprenderse o predecirse.

Del mismo modo, si miras al cielo nocturno, verás más de una estrella. Incluso los planetas, que resultan ser diferentes de otras «estrellas», tienen algo en común con las estrellas en cuanto al conocimiento que se requiere para comprenderlos.

Nuestros antepasados, que no tenían experiencia en comprender el fuego como fenómeno químico, quizá no confiaban en su capacidad para comprender las estrellas algún día. Pero hoy en día hemos comprendido el fuego, las estrellas y muchos otros fenómenos, y podemos extraer una sutil lección que va más allá de «Bueno, hemos comprendido eso, así que comprenderemos todo lo demás en el futuro». Es la lección de que la repetición se corresponde con la regularidad, que las cosas que ocurren a menudo suceden por una razón.

La inteligencia exhibe regularidades similares que sugieren que puede comprenderse. Por ejemplo, está presente en todos los seres humanos y podría haberse construido mediante la búsqueda ciega de la evolución a través de los genomas. Evidentemente, conjuntos de genes similares podrían tener éxito en múltiples tareas diferentes. Los genes que permiten al cerebro humano tallar hachas también nos permiten fabricar lanzas y arcos. Y más o menos esos mismos genes produjeron cerebros que inventaron la agricultura, las armas de fuego y los reactores nucleares.

Si no hubiera estructura, orden ni regularidad en la inteligencia que pudiéramos reconocer como un patrón, entonces un animal tendría que predecir o inventar una cosa a la vez. Los cerebros de las abejas están especializados en las colmenas; no pueden construir presas. Podría haber sido el caso de que los seres humanos necesitáramos la misma especialización para cada tarea que podemos resolver; podría haber sido que necesitáramos desarrollar áreas cerebrales especializadas en «reactores nucleares» antes de poder construir reactores nucleares. Si eso es lo que los neurocientíficos encontraran dentro de los cerebros, tendrían motivos para sospechar que no existen principios profundos de inteligencia que comprender, y que hay principios diferentes para cada tarea.

Pero eso no es lo que encontramos dentro del cerebro humano. Descubrimos que los mismos cerebros diseñados para tallar hachas son capaces de inventar reactores nucleares, lo que implica que existe algún patrón subyacente que los genes pudieron aprovechar una y otra vez.

La inteligencia no es un fenómeno caótico, impredecible y único, como los números ganadores de la lotería de la semana pasada. Hay una regularidad en el universo que hay que comprender.

Hay muchas cosas que aún no entendemos sobre la inteligencia humana que, en principio, deberían ser comprensibles

En lo que respecta a los seres humanos, la ciencia actual puede decir mucho sobre la estructura y el comportamiento de las neuronas individuales. Y podemos decir mucho sobre temas comunes de la psicología popular, como «Bob fue solo al supermercado porque estaba enfadado con Alice». Pero entre estos dos niveles de descripción, hay una enorme cantidad que falta en nuestra comprensión.

Sabemos muy poco sobre muchos de los algoritmos cognitivos que utiliza el cerebro. Podemos decir cosas muy generales sobre las funciones que se correlacionan con regiones cerebrales concretas, pero estamos muy lejos de poder describir de forma mecanicista lo que realmente hace el cerebro.

Una forma sencilla de ver que falta un nivel de abstracción es que nuestros modelos neurocientíficos de alto nivel hacen predicciones mucho peores que las que se podrían obtener mediante una simulación completa de las neuronas. Por lo tanto, nuestra comprensión mecánica de otras personas debe ser incompleta.

Presumiblemente, cierta pérdida de información es necesaria, pero un buen modelo tendría muchas menos pérdidas. «Entender» el diferencial de un coche no te permite predecir todo lo que hace el diferencial tan bien como una simulación a nivel atómico, porque a veces los dientes de los engranajes se desgastan y resbalan, por ejemplo. Sin embargo, el modelo a nivel de engranajes de un diferencial sigue haciendo predicciones muy precisas, y es fácil ver el límite entre las cosas que se supone que el modelo debe predecir (como cómo girarán los engranajes cuando estén correctamente engranados) y lo que no (como lo que sucede cuando los dientes de los engranajes se desgastan).

¿Por qué esperar que este grado de modelado sea posible con la mente humana? Quizás la mente humana sea demasiado aleatoria para eso. Quizás, si quieres predicciones precisas, o son las neuronas o nada. *

Una evidencia de que no se trata de «neuronas o nada» es que incluso tu madre puede predecir tu comportamiento mejor que los mejores modelos formales del cerebro. Lo que significa que definitivamente hay alguna estructura en la psicología humana que se puede conocer implícitamente, sin simular exactamente las neuronas de alguien. Simplemente aún no se ha hecho explícita.

Más evidencia concreta de que es posible modelar mejor la mente humana proviene de los estudios sobre amnésicos. Algunos amnésicos tienden a repetir la misma broma textualmente varias veces. Esto sugiere un cierto tipo de regularidad en el cerebro de esa persona. Sugiere que, de forma subconsciente, realizan un cálculo concreto (basado, quizás, en sus circunstancias y en la presencia de la enfermera, sus recuerdos y su historia, y su deseo de difundir alegría y ser vistos como inteligentes) que se mantiene estable a pesar de diversas perturbaciones menores.

Si hay tanta regularidad en el cálculo mental de una persona, entonces parece que debería ser posible entenderlo, que debería ser posible conocer los «engranajes» de la decisión, entender el cerebro con suficiente profundidad como para decir:

«Ah, estas neuronas corresponden al deseo de difundir alegría, y esas neuronas corresponden al deseo de ser visto como inteligente, y estas neuronas de aquí son las que generan posibles pensamientos después de ver a la enfermera entrar en la habitación, y aquí están los generadores que producen el pensamiento de «contar un chiste», y así es como las neuronas del deseo antes mencionadas interactúan con él, de modo que el pensamiento se promueve al primer plano en el siguiente contexto más amplio. Y así es como ese contexto afecta al acceso a la memoria con los siguientes parámetros —que, si sigues estas vías aquí, puedes ver cómo eso desencadena la idea de mirar alrededor de la habitación—. Y dado que la habitación contiene un cuadro de un velero, puedes ver cómo el concepto de «velero» se activa por esta nube de neuronas de aquí, y si rastreas los efectos de vuelta hasta la búsqueda en la memoria, puedes ver cómo el paciente termina haciendo una broma sobre veleros.»

La explicación correcta no sonará exactamente así. Pero la regularidad de la simple observación macroscópica («la misma broma cada mañana») sugiere fuertemente que no todo es aleatoriedad irreducible, sino que hay algún cálculo reproducible sucediendo ahí. (Lo cual, por supuesto, también coincide con el sentido común; si los cerebros fueran puramente aleatorios, no podríamos funcionar.)

Ya ha habido algunos avances en la comprensión de la inteligencia

Esta es la razón principal por la que estamos seguros de que aún queda mucho por aprender sobre la inteligencia. Puedes leer libros más antiguos como The MIT Encyclopedia of the Cognitive Sciences o Artificial Intelligence: A Modern Approach (2.ª edición) —escritos antes de que las técnicas modernas de «aprendizaje profundo» (para cultivar las IA) arrasaran el campo de la IA— y hacerte una idea de cómo se resuelven los diferentes problemas de la cognición. No todas estas perspectivas se han reescrito para ser legibles para una audiencia no especializada ni se han difundido ampliamente a estudiantes universitarios; existe mucho más de lo que se ha popularizado.

Tomemos el principio científico de que debemos favorecer las hipótesis más simples frente a las más complejas, en igualdad de condiciones. ¿Qué significa exactamente «simple» en este contexto?

«Mi vecina es una bruja, ¡ella lo hizo!» sin duda suena más simple para mucha gente que las ecuaciones de Maxwell que rigen la electricidad. ¿En qué sentido son las ecuaciones la opción «más simple»?

A todo esto, ¿cómo definimos la idea de que la evidencia «encaja» con una hipótesis, o que una hipótesis «explica» la evidencia? ¿Y cómo intercambiamos la simplicidad de las hipótesis frente a su poder explicativo? «¡Mi vecina es una bruja; ella lo hizo!» suena como si pudiera explicar una gran cantidad de cosas. Sin embargo, muchos intuyen (correctamente) que esta es una mala explicación. El hecho de que la brujería pueda «explicar» tantas cosas es parte de por qué es una mala explicación.

¿Hay principios unificadores para elegir entre diferentes hipótesis? ¿O solo hay cien herramientas diferentes para intercambiar para diferentes problemas? Y en este último caso, ¿cómo se las arregla el cerebro humano para inventar herramientas como esas?

¿Existe un lenguaje que podamos utilizar para describir todas las hipótesis que las computadoras o los cerebros podrían utilizar con éxito?

Preguntas como estas pueden sonar muy imponderables y filosóficas para alguien que las escucha por primera vez. Sin embargo, en realidad son preguntas resueltas y bien comprendidas en las ciencias de la computación, la teoría de la probabilidad y la teoría de la información, con respuestas que reciben nombres como «longitud mínima del mensaje», «prior de Solomonoff» o «razón de verosimilitud».

También parece relevante que ya existan IA totalmente comprendidas que son superhumanas en dominios específicos. Entendemos todos los principios relevantes que intervienen en la IA de ajedrez Deep Blue. Dado que Deep Blue fue programada a mano, podemos inspeccionar fácilmente diferentes partes de su código, ver todo lo que hace un fragmento de código determinado y ver cómo se relaciona con el resto de la base de código.

En lo que respecta a los LLM como ChatGPT, no está del todo claro que pueda existir una descripción completa y breve de cómo funcionan. Los LLM son lo suficientemente grandes como para que se les permita tener un comportamiento similar por muchas razones contingentes diferentes, si (por ejemplo) la maquinaria que hace que ese comportamiento se produzca ocurre en mil lugares diferentes dentro del LLM.

ChatGPT podría resultar difícil de entender para los científicos, incluso después de décadas de estudio. Pero la existencia de ChatGPT no significa que la inteligencia tenga que ser desordenada para funcionar. Solo significa que sería una idea extremadamente mala intentar escalar algo como ChatGPT hasta llegar a la superinteligencia, por razones que cubriremos en capítulos posteriores del libro.

El hecho de que una mente en particular sea desordenada no significa que sea imposible comprender la inteligencia. Ni siquiera significa que sea imposible comprender ChatGPT algún día. Si observas muy de cerca cien troncos ardiendo, puedes ver que no hay dos troncos que ardan exactamente igual. El fuego se propaga de diferentes maneras, las brasas vuelan en diferentes direcciones y todo es muy caótico. Si pudieras mirar muy de cerca y ver el tronco con un microscopio ignífugo, podrías ver detalles aún más vertiginosos. Parece fácil imaginar a un filósofo antiguo, al observar estos detalles caóticos, llegando a la conclusión de que el fuego nunca se comprendería por completo.

¡Y puede que incluso tuvieran razón! Puede que nunca tengamos el poder de mirar un tronco y decir exactamente qué fragmento de madera se convertirá en la primera brasa que flotará hacia el oeste. Pero el filósofo antiguo habría estado gravemente equivocado si hubiera concluido que nunca comprenderíamos qué es el fuego, comprender por qué ocurre, crearlo en condiciones controladas o aprovecharlo para obtener grandes beneficios.

El patrón exacto de las brasas no es muy regular ni muy reproducible. Pero en un nivel más abstracto, esa materia caliente que parpadea en amarillo-naranja-rojo es una regularidad que ocurre una y otra vez en el mundo, y es algo que la humanidad logró comprender.

Los argumentos de Si alguien la crea, todos moriremos no dependen mucho de los detalles técnicos que se conocen hoy en día sobre la inteligencia. «La gente sigue fabricando computadoras más inteligentes y no las controla; y si fabrican algo muy inteligente que se salga de control, acabaremos muertos» no es un concepto tan esotérico. Pero es útil saber que existe un gran corpus de conocimientos existentes al respecto, aunque aún queden muchos misterios y cosas desconocidas en el campo.

Los argumentos centrales del libro no dependen de si la inteligencia es comprensible en principio, razón por la cual no hemos entrado en detalles sobre la literatura existente. Aún si ningún ser humano fuera jamás capaz de comprender los misterios de una inteligencia de máquina superhumana, la superinteligencia artificial podría matarnos.

La cuestión importa principalmente cuando se trata de decidir qué hacer después de detener la carrera suicida hacia la IA.

Y es importante que la inteligencia probablemente pueda entenderse, lo que significa que probablemente sería posible en principio que personas inteligentes desarrollen un campo maduro de la inteligencia y que esas personas encuentren una solución al problema de alineación de la IA.

También es importante que la humanidad moderna no está ni remotamente cerca de lograr esa hazaña, por supuesto. Pero el hecho de que la hazaña sea posible en principio tiene implicaciones para cómo la humanidad debería encontrar una salida a este lío, como discutiremos más adelante, en el debate ampliado del capítulo 10.

* Incluso es posible que las simulaciones neuronales sigan siendo poco fiables, si, por ejemplo, el comportamiento humano es muy sensible al calor.

Yudkowsky ha escrito más sobre estos temas en entradas de blog como «What is Evidence?» (¿Qué es la evidencia?), «How Much Evidence Does It Take?» (¿Cuánta evidencia se necesita?) y «Occam’s Razor» (La navaja de Occam).

Notes

[1] incomparablemente distinto: Como lo expresó el eminente físico Lord Kelvin en 1903: «Los biólogos modernos están volviendo a aceptar con firmeza la existencia de algo que va más allá de las meras fuerzas gravitatorias, químicas y físicas; y ese algo desconocido es un principio vital». Fuente: Silvanus Phillips Thompson, The Life of Lord Kelvin (La vida de Lord Kelvin) (American Mathematical Society, 2005).

¿Tu pregunta no fue respondida aquí?Envía una pregunta.