Adoptar la perspectiva de la IA | Si alguien la crea, todos moriremos | If Anyone Builds It, Everyone Dies

Adoptar la perspectiva de la IA

Ver el mundo desde una perspectiva verdaderamente ajena es realmente difícil. Como ejemplo de esta dificultad, podemos citar a Jürgen Schmidhuber, un destacado científico especializado en aprendizaje automático. Schmidhuber ha desempeñado un papel importante en la historia de este campo, ya que ha contribuido a la invención de las redes neuronales recurrentes y ha sentado algunas de las bases para la revolución del aprendizaje profundo.

En varios artículos y entrevistas, Schmidhuber defendió que la IA, por defecto, se sentirá fascinada por la humanidad y protegerá a los seres humanos.

Schmidhuber observó que existe una relación entre la ciencia y la simplicidad: las explicaciones más simples suelen ser las correctas. Y observó que existe una relación entre el arte y la simplicidad: la simplicidad y la elegancia suelen considerarse bellas. Un rostro más simétrico, por ejemplo, puede considerarse «más simple» en el sentido de que puedes predecir el rostro completo con menos información. Basta con describir el lado izquierdo del rostro en detalle y luego decir: «El lado derecho es igual, pero invertido».

La conclusión de Schmidhuber a partir de todo esto es que deberíamos intentar crear IA superinteligentes que tengan un único objetivo primordial: Encontrar explicaciones simples para todo lo que la IA ha visto. Después de todo, una IA así tendría cierto gusto por producir ciencia y consumir arte. Y los humanos producimos tanto ciencia como arte, así que ¿no nos vería como aliados naturales interesantes y útiles?

Schmidhuber tenía razón al afirmar que mantener a los humanos cerca y pagarles para que produzcan ciencia y arte es una forma de producir ciencia y arte. También tenía razón al afirmar que la ciencia y el arte son formas de satisfacer el impulso por la simplicidad de mejor manera que, por ejemplo, mirar la estática en una pantalla de televisión. La estática es complicada y difícil de predecir; el arte y la ciencia son un gran avance con respecto a eso.

Pero Schmidhuber parece haber pasado por alto que hay formas aún más eficaces de obtener explicaciones sencillas de observaciones sensoriales variadas.

Por ejemplo, se podría construir un gran número de dispositivos que produzcan observaciones complicadas a partir de una «semilla» simple (por ejemplo, un generador de números pseudoaleatorios) y luego revelar esa semilla.

Cuantos más dispositivos de este tipo cree la IA a su alrededor, mejor lo hará para realizar observaciones novedosas y luego encontrar explicaciones sencillas para ellas. Sin necesidad de humanos. Sin necesidad de arte.

«Pero ¿no es eso un poco… vacío?», podría preguntarse un humano.

Es vacío, para la sensibilidad humana. Pero si el objetivo de la IA es realmente «encontrar explicaciones sencillas para sus observaciones», entonces un esquema como ese puede satisfacer este deseo miles o millones de veces más por segundo, de una manera mucho más escalable, que mantener a seres humanos vivos y conversar con ellos. Una IA como esa no elige acciones que se alejen de una sensación de vacío, simplemente elige acciones que se orienten hacia la búsqueda de explicaciones sencillas para sus observaciones. Y puede obtener muchas de ellas sin necesidad de ningún humano.

Nos parece que ideas como las de Schmidhuber reflejan un error común que comete la gente cuando intenta razonar sobre mentes diferentes a la suya. A menudo, la gente no adopta verdaderamente la perspectiva de una mente no humana. En cambio, dejan que las ideas preconcebidas y los sesgos los anclen al estrecho conjunto de opciones que interesarían a un humano, como si estuviéramos intentando hacer predicciones sobre un humano al que realmente le gustan las explicaciones sencillas.

Suponemos que Schmidhuber observó que la simplicidad está relacionada con la ciencia y el arte, y vio cómo una IA que se orientaba hacia explicaciones simples podía conseguir un poco de lo que quería orientándose hacia ser amigable y agradable. No es difícil saltar de ahí a una conclusión que resulta agradable de imaginar: que si simplemente hiciéramos que las IA se preocuparan por encontrar explicaciones sencillas, daríamos paso a un futuro maravilloso lleno de todas las cosas que nosotros valoramos en la vida.

Pero suponemos que Schmidhuber nunca se puso en el lugar de la IA y se preguntó cómo conseguir aún más.

Dudamos que alguna vez se haya preguntado: «Si lo que realmente quisiera fuesen explicaciones sencillas para mis observaciones, y no me importaran las cuestiones humanas, ¿cómo podría obtener la mayor cantidad posible de lo que quiero, de la forma más barata posible?».

Puede resultar difícil adoptar este tipo de perspectiva. No es algo que la gente necesite hacer en el día a día. Incluso cuando intentamos comprender a personas muy diferentes a nosotros, hay una enorme cantidad de cosas que todos los seres humanos compartimos, que normalmente podemos dar por sentadas (y que prácticamente tenemos que dar por sentadas cuando hacemos predicciones sobre otros seres humanos). Pero las IA, incluso las superinteligentes que pueden hacer ciencia y arte, no son seres humanos.

El arte de considerar un objetivo X y preguntarse «¿Cómo podría conseguir aún más de X, si X fuera lo único que realmente me importara?» no te permitirá averiguar exactamente cómo resolvería un problema una superinteligencia, ya que esta podría encontrar una opción aún mejor que la que tú encontraste. Pero a menudo te permite averiguar cómo una superinteligencia no resolvería un problema, cuando incluso tú puedes ver una forma de obtener más X de la que obtendrías simplemente dejando que los humanos anden por ahí pasándola bien.

Uno de los raros campos de la ciencia que se ocupa regularmente de potentes optimizadores no humanos es la biología evolutiva. Al principio de su historia, este campo tuvo algunas dificultades para aceptar lo inhumanos que pueden ser los optimizadores no humanos; podemos extraer algunas lecciones útiles de un estudio de caso allí.

Quizás hayas oído hablar de los ciclos de auge y caída de depredadores y presas. Un año lluvioso lleva a un auge en la población de conejos, lo que lleva a un auge en la población de zorros, hasta que los zorros depredan en exceso y la población de conejos colapsa, seguido por la muerte por inanición de muchos zorros.

A principios del siglo XX, los biólogos evolutivos reflexionaban sobre la pregunta de por qué los zorros no evolucionaron para moderar su depredación, de modo de evitar el colapso poblacional. Después de todo, ¿no sería más saludable la población de zorros en su conjunto si no tuviera que lidiar regularmente con la hambruna y la muerte masiva?

La respuesta a este enigma es que la moderación podría ser mejor para la población de zorros como un todo, pero comer más conejos y tener más crías es mejor para cualquier zorro en lo individual. Incluso si la población colapsa y la mayoría de las crías de un individuo mueren, ese individuo tiende a transmitir una mayor proporción de sus genes a la fracción superviviente de la siguiente generación.

Las presiones de la selección genética sobre los individuos resultan superar drásticamente las presiones de la selección genética sobre los grupos en casi todos los casos. Y así se propagan los genes «codiciosos» y continúan los ciclos de auge y caída.

Los biólogos evolutivos resolvieron este enigma teóricamente, pero eso no les impidió poner a prueba su teoría. A finales de la década de 1970, Michael J. Wade y sus colegas crearoncondicionesartificiales en las que las presiones grupales de selección dominaban las presiones individuales. Tuvieron que trabajar con una especie de escarabajos, que tienen generaciones mucho más cortas que los zorros, pero lograron criar especímenes que mantuvieron bajo control el crecimiento de su población.

¿Puedes adivinar cómo lograron esos escarabajos mantener bajo control el crecimiento de su población? ¿Fue encontrando una forma de vivir en hermosa armonía con la naturaleza? ¿Fue aprendiendo a abstenerse de acaparar con avaricia demasiada comida?

No. Había una gran varianza, pero ningún escarabajo se abstuvo de comer. Algunos escarabajos empeoraron en la puesta de huevos. Otros pasaron más tiempo en la infancia. Y algunos se convirtieron en caníbales con una preferencia especial por devorar larvas (crías de insectos).

Afortunadamente, «crear caníbales con debilidad por los bebés» no es la forma en que los humanos resolveríamos el problema de la superpoblación, si necesitáramos resolverlo.

Pero la selección natural definitivamente no es un humano. La solución era espantosa, porque la naturaleza no intentaba encontrar respuestas aceptables para los humanos. Solo intentaba encontrar una respuesta.

«Quizás la evolución produzca especies que vivan en hermosa armonía y equilibrio con la naturaleza». «Quizás las IA que solo se preocupan por la simplicidad amen a los humanos y coexistan con nosotros». Es fácil para nosotros imaginar soluciones que halagan nuestras sensibilidades. Pero esas soluciones no son en realidad las más eficaces para el problema planteado.

Quizás sean soluciones mejores a los ojos de los humanos. Pero los procesos de optimización no humanos no buscan soluciones que los humanos consideren buenas. Solo buscan lo que funciona, sin nada del bagaje que los humanos llevamos encima para filtrar las respuestas agradables.

La hipótesis de que los optimizadores no humanos producen resultados humanitarios ha sido probada y ha resultado deficiente.

Notes

[1] revelar esa semilla: Yo (Yudkowsky) presenté este contraargumento a Schmidhuber en una sesión de preguntas y respuestas en vivo después de su charla sobre el tema en la Singularity Summit de 2009, una conferencia organizada por MIRI (que entonces se llamaba Singularity Institute).

¿Tu pregunta no fue respondida aquí?Envía una pregunta.