¿Por qué ayudaría hacer más inteligentes a los humanos? | Si alguien la crea, todos moriremos | If Anyone Builds It, Everyone Dies

¿Por qué ayudaría hacer más inteligentes a los humanos?

Podría ayudar a resolver el problema de la alineación.

El problema de la alineación de la IA no nos parece fundamentalmente irresoluble. Solo nos parece que los humanos no están ni cerca de resolverlo, y que no se encuentran en un nivel de inteligencia en el que creer que tienen una solución se correlacione fuertemente con tenerla de verdad.

Los investigadores en IA suelen reconocer que el problema de la alineación parece tremendamente difícil y que, hasta la fecha, se ha avanzado muy poco al respecto. Por eso resulta tan atractivo pensar que «quizás podamos conseguir que las IA hagan nuestra tarea de alineación por nosotros»: cuando eres investigador en IA y sientes que ni tú ni tus colegas están a la altura de resolver un problema determinado, lo más obvio es recurrir a la IA.

Pero, como comentamos en el capítulo 11 y en el recurso en línea asociado, incluso desde la perspectiva de un inexperto está claro que esta idea plantea muchos problemas: para que una IA descubra cómo resolver un problema profundo con el que los mejores investigadores humanos están teniendo grandes dificultades, tiene que ser lo suficientemente inteligente como para resultar peligrosa. Y como nosotros tenemos muy poca idea de lo que estamos haciendo, no disponemos de una fuente de verdad fundamental que podamos utilizar para entrenar directamente capacidades de alineación estrechas, ni tenemos forma de comprobar si una propuesta de alineación generada por la IA es segura o eficaz.

El mundo puede plantearnos problemas que están legítimamente fuera de nuestro alcance. La naturaleza no es un juego que solo le plantee a la humanidad retos «justos»; a veces podemos encontrarnos con problemas que son demasiado difíciles de resolver incluso para los mejores científicos, o demasiado difíciles de resolver en el plazo requerido.

¿Existe un método más realista para traspasar todo el problema a alguna entidad más inteligente? Una opción sería hacer que los humanos fueran más inteligentes, de tal manera que pudieran resolver legítimamente el problema de la alineación. Los humanos ya vienen «prealineados», a diferencia de las IA; los humanos más inteligentes tienen las mismas motivaciones prosociales básicas que el resto de nosotros.

En principio, parece posible que las personas puedan distinguir entre lo que parece una gran iluminación alquímica que les permitirá transmutar el plomo en oro, y el tipo de conocimiento que realmente confiere la capacidad de transmutar el plomo en oro (utilizando la física nuclear para arrancar algunos neutrones de los átomos de plomo). Sin duda, deberían sentirse como estados de conocimiento diferentes.

Pero a los ingenieros humanos les cuesta mucho saber en qué zona se encuentran. En la historia de la química, el nivel de habilidad de la humanidad era tal que los alquimistas eran engañados sistemáticamente.

En el mundo real, los científicos se aferran a sus teorías favoritas y se niegan a revisar sus puntos de vista hasta que la realidad les demuestra repetidamente que «su teoría era errónea» —y a veces se niegan a cambiar de parecer incluso entonces—. A veces se dice que la ciencia avanza «un funeral a la vez», porque la vieja guardia nunca cambiará de ideas y solo queda esperar a que la nueva guardia madure. Pero esto no es una limitación fundamental impuesta por la naturaleza; es solo que los seres humanos, como clase, no somos lo suficientemente sagaces, cuidadosos y conscientes de nosotros mismos.

Por lo general, está bien que los seres humanos sean ingenuos en estos aspectos, porque la realidad suele ser bastante indulgente con los errores, al menos en el sentido de que no aniquila a toda la humanidad por la arrogancia de un alquimista. Pero ese no es un lujo que la humanidad pueda permitirse cuando se trata de alinear la superinteligencia artificial.

La humanidad suele adquirir sus conocimientos luchando, intentándolo, fracasando y acumulándolos poco a poco. Pero no tiene por qué ser así.

Einstein no solo fue capaz de descubrir la relatividad general, sino que lo hizo reflexionando intensamente sobre el problema, incluso antes de que la humanidad pusiera satélites en órbita y comenzara a ver con sus propios ojos las discrepancias en sus relojes (como se explica en el capítulo 6). Tenía evidencia empírica, pero fue capaz de dar con la respuesta correcta de manera eficiente en respuesta a los primeros susurros de los registros empíricos, en lugar de necesitar que la verdad golpeara a su puerta.

Ese camino es menos común y más difícil de recorrer, pero ese tipo de genio científico existe —aunque raramente—, incluso entre los mejores y más brillantes del mundo.

Los seres humanos mejorados uno o dos pasos más allá del nivel de investigadores como Einstein o John von Neumann podrían empezar a descubrir con precisión sus propios defectos y corregirlos de docenas de maneras diferentes.

Podrían darse cuenta de que están racionalizando o cayendo en el sesgo de confirmación. Podrían superar el punto de esperar que una idea que suena inteligente funcione cuando en realidad no es así, hasta el punto de que, cada vez que esperan tener éxito, realmente lo consiguen. Podrían alcanzar un nivel de competencia en el que sigan cometiendo muchos errores, pero sin pecar sistemáticamente de exceso de confianza (o de falta de ella) en nuevos ámbitos complicados.

¿Es realmente posible mejorar la inteligencia humana? Nos parece que sí, tras haber hablado con varios investigadores en biotecnología que creen que hay vías de abordaje prometedoras a corto plazo. Una IA cuidadosamente orientada a la biotecnología también podría ayudar a acelerar el trabajo. Pero, desde nuestra perspectiva, sigue siendo muy incierto si un plan como este daría realmente resultado. Lo que sí podemos afirmar con más seguridad es que se trata de una opción con un efecto multiplicador elevado que merece mucha más inversión y exploración de la que está recibiendo actualmente.

No recomendamos mejorar la inteligencia humana como la única estrategia posterior a la desactivación de la IA en la que creemos que la humanidad debería invertir fuertemente. Más bien, este es solo uno de muchos ejemplos, y el que actualmente consideramos más prometedor. Recomendamos encarecidamente que la humanidad explore múltiples vías de avance sin IA, en lugar de poner todos los huevos en la misma canasta.

Los humanos mejorados no plantean un gran problema de «alineación humana».

Los humanos mejorados tendrían esencialmente la misma arquitectura cerebral, las mismas emociones, etc., que el resto de nosotros. Con la IA —incluso la IA entrenada para sonar como nosotros—, nos separa un enorme abismo cognitivo y motivacional, y una brecha de comprensibilidad de magnitud similar; en cambio, con humanos modestamente más inteligentes, no parece que nada de eso sea particularmente probable.

Los investigadores con cognición mejorada no necesitarían mantener su propia integridad mental mientras se convierten en vastas superinteligencias con mentes millones de veces más grandes. Solo necesitarían ser elevados al nivel necesario para descubrir cómo construir —no cultivar— superinteligencias artificiales que estuvieran verdaderamente alineadas y fueran realmente estables.

Es posible que siga existiendo un problema de «alineación humana» en el sentido débil de que cualquier esfuerzo por coordinar a varias personas puede tropezar con problemas del agente-principal y de incentivos. Y estos problemas, por naturaleza, cobran mucha más importancia en cualquier grupo encargado de crear superinteligencia.

Esperamos que estos problemas sean tratables siempre que los humanos empiecen siendo visiblemente altruistas y caritativos, que su inteligencia aumente solo lentamente y que trabajen en una institución bien diseñada con incentivos bien diseñados. Aunque es totalmente razonable que la gente se preocupe por la posibilidad de que se produzca una toma de poder en este ámbito. Resolver estos problemas no sería necesariamente fácil, pero no sería tan fundamentalmente inviable como que las empresas intentaran desarrollar superinteligencias inescrutables con mentes totalmente incomprensibles e impulsos inhumanos.

Crear un equipo de élite de supergenios modificados genéticamente para ayudar a que el planeta transite de forma segura hacia la superinteligencia es, sin duda, algo que la humanidad debería hacer con cuidado, dado lo mucho que está en juego en dicha empresa. Una iniciativa así plantea diversas cuestiones prácticas y éticas, pero estas deben sopesarse frente al costo de dejar que la superinteligencia nos aniquile a todos, si ninguna otra solución parece igual de prometedora.

A grandes males, grandes remedios, pero la mejora (modesta) de la inteligencia humana ni siquiera es una medida que parezca particularmente drástica. Parece una tecnología netamente positiva en sí misma, que tiene al menos alguna posibilidad de ayudar a la humanidad en más de un sentido.

Podemos trabajar juntos para detener la superinteligencia, aunque no estemos de acuerdo sobre la mejora humana.

Si no coincides con nosotros en cuanto a la idea de la mejora humana, aún podemos ponernos de acuerdo para detener el desarrollo de la IA de vanguardia.

Si no resolvemos esa parte, todos moriremos. Todos los que no quieran morir hoy tienen que cooperar para ese fin. Podemos esperar hasta que haya pasado la amenaza de muerte inmediata para discutir si la mejora de la inteligencia humana debería ser ilegal o subvencionada.

«Hacer a los humanos más inteligentes que Einstein» no es un plan para evitar morir en 2028 o 2032, o cuando se produzca el próximo avance fundamental en los algoritmos de IA.

No es un plan que pueda llevarse a cabo en paralelo al desarrollo de la IA. Incluso si alguien usara tecnología médica propiciada por IA menos inteligentes que los humanos para aumentar la inteligencia humana muy por encima del nivel de Einstein, es probable que esas mejoras no bastaran para resolver el problema de la alineación de la IA ni para diseñar, crear y construir de forma segura y rápida una superinteligencia artificial, bajo la presión de una carrera armamentista. La carrera hacia la superinteligencia debe detenerse igualmente.

La idea detrás del aumento de la inteligencia humana es que podría hacer siquiera posible resolver el problema de la alineación, si un gran número de investigadores mejorados también tuvieran un número significativo de años o décadas para trabajar en el problema. La idea no es que pudieran ganar una carrera para construir una superinteligencia alineada dentro de seis años, más rápido de lo que el resto de la industria de la IA puede construir y desplegar una superinteligencia no alineada.

Muchas personas que piensan que «aumentar la inteligencia humana» es un plan relativamente prometedor, incluidos nosotros mismos, creen que los primeros pasos siguen pasando por cerrar las empresas de IA.

Quienes tienen otros planes sobre lo que la humanidad debería hacer a continuación, por lo general también coinciden en que el primer paso debería ser el cierre de las empresas de IA.

Meta AI no puede existir, OpenAI no puede existir, Anthropic no puede existir; simplemente nos matarán. Podemos estar de acuerdo en esta prioridad inmediata, incluso si tenemos ideas muy diferentes sobre qué hacer después.

¿Tu pregunta no fue respondida aquí?Envía una pregunta.