¿Puede un régimen de vigilancia durar para siempre?
No. Se necesitará alguna otra vía de salida.
El progreso de la investigación en IA probablemente no se pueda detener por completo. Con suficiente tiempo, los investigadores probablemente acabarían descubriendo métodos mucho más eficientes para crear IA.* O tal vez, con el tiempo, algún actor malintencionado conseguiría finalmente burlar alguna prohibición.
Es muy probable que el tiempo arrastre a la humanidad hacia el futuro de una forma u otra. Y la humanidad se extinguirá —como la mayoría de las especies que la precedieron— o de alguna manera superará la transición hacia un mundo en el que existan entidades más inteligentes.
Pero la humanidad tampoco necesita ganar tiempo para siempre. La IA no es la única tecnología que está progresando. La biotecnología también está empezando a madurar, y si la humanidad logra impedir el desarrollo de máquinas superinteligentes durante varias décadas, tendrá que hacer frente a cambios disruptivos como la ingeniería genética, que da lugar a seres humanos significativamente más inteligentes.
La cuestión es cuánto tiempo podemos ganar y qué podemos hacer con él.
El problema básico al que se enfrenta la humanidad es cómo cruzar de forma segura la brecha de la inteligencia humana a la superinteligencia. El mejor plan que se nos ocurre y que quizás tenga posibilidades de funcionar en la vida real es ganar tiempo para que la biotecnología aumente considerablemente la inteligencia humana, hasta el punto de que los futuros investigadores humanos sean tan inteligentes que nunca (por ejemplo) estimen que un proyecto de ingeniería se terminará a tiempo y por debajo del presupuesto a menos que realmente fuera a pasar.
Tan inteligentes que nunca se adherirían a una teoría científica como el aristotelismo o el heliocentrismo, incluso si la sociedad que los rodeara estuviera completamente convencida. Tan inteligentes que tendrían la oportunidad de navegar por la brecha entre el antes y el después en el primer intento.
Hay otros caminos posibles que podríamos imaginar, pero este tiene la ventaja de atacar el cuello de botella clave («la comunidad científica existente depende demasiado de los métodos de ensayo y error y del incrementalismo para abordar este problema en particular»), utilizando tecnología que ya está empezando a estar disponible hoy en día, sin suponer un riesgo grave para el mundo.
Ningún régimen de vigilancia debería durar para siempre.
En teoría, es posible que la humanidad mantenga para siempre el equilibrio precario en el que se encuentra actualmente. Estimamos que esto requeriría un control draconiano de los pensamientos y las actividades de las personas. Pero, incluso si no fuera así, lo consideraríamos una mala opción.
Personalmente, creemos que los descendientes de la humanidad merecen convertirse en lo que deseen ser, explorar las estrellas y construir allí una civilización próspera y hermosa. Abogamos por la prohibición del desarrollo de la IA de vanguardia porque creemos que la superinteligencia es lo suficientemente peligrosa como para hacerla necesaria, no porque odiemos la IA, la tecnología o el progreso científico.
La verdadera pregunta es cómo llegamos a un futuro maravilloso y cómo gestionamos la transición desde aquí hasta allá.
Vale la pena destacar esto, en parte porque hay muchas personas que presentan la IA como una falsa dicotomía: dicen (falsamente) que la sociedad debe aceptar los riesgos de la IA y seguir adelante a toda máquina, o rechazar la IA y dejar que nuestra civilización se desvanezca para siempre en un solo planeta. Esto es sencillamente falso. Hay otros caminos hacia el futuro, caminos que permiten un futuro igual de brillante, pero sin un riesgo tan alto de echarlo todo a perder por nada. La humanidad debería encontrar otro camino hacia el futuro.
* Es posible que, por ejemplo, los investigadores encuentren métodos más eficientes estudiando los LLM existentes hasta comprender mejor su funcionamiento.