Los planes viables implicarán decir «No» a las empresas de IA.
Sí que advertimos, hasta cierto punto, a las personas con influencia en los gobiernos que eviten elaborar planes que impliquen sentarse a negociar con las empresas de IA.
Si eres nuevo en este tema y quieres evaluar por ti mismo los laboratorios o sus argumentos, te animamos a que consultes algunas de sus entradas de blog públicas y veas si te parecen convincentes.*
Pero si estás trabajando en encontrar soluciones a los problemas tratados en Si alguien la crea, todos moriremos y tienes un plan que requiere que el director general de OpenAI, Sam Altman, lo apruebe, nos preocupa que el plan deba de ser el equivocado desde un principio.
Es probable que los planes correctos sean aquellos a los que los directores de las empresas de IA se opongan con vehemencia. Además, Sam Altman no tiene el poder de salvar el mundo: si mañana intentara cerrar OpenAI, OpenAI y Microsoft se opondrían, y bien podrían sustituirlo por alguien que prefiera mantener el flujo de dinero.
Si OpenAI cerrara, entonces Anthropic, Google DeepMind, Meta, DeepSeek o alguna otra empresa o nación destruirían el mundo en su lugar. Sam Altman podría empeorar las cosas si lo intentara; tiene poco poder para mejorarlas.
Nos gustaría estar equivocados al respecto, pero el panorama general que hemos obtenido, tanto de informes públicos como de interacciones privadas, es que los ejecutivos de las principales empresas de IA (en 2025) no parecen ser el tipo de personas respetuosas de las normas u honestas con las que sea del todo factible llegar a acuerdos.†
A nuestro parecer, lo que se necesita ahora es un cese coordinado a nivel mundial de la carrera hacia la superinteligencia. Para ello, es probable que los responsables de políticas necesiten las aportaciones de personas expertas en la fabricación de chips de IA, la construcción de centros de datos y la supervisión del cumplimiento por parte de actores extranjeros. ¿Y los expertos en desarrollar IA cada vez más potentes? Sin duda, son gerentes competentes, pero no deberían tener poder de veto sobre ninguna de las iniciativas destinadas a detener su propio trabajo.
Si, por cualquier motivo, las empresas de IA acaban teniendo voz y voto en lo que suceda a continuación, nos parece que algo ha salido mal. ¿El plan que la Tierra elabora para evitar morir a manos de la superinteligencia es el tipo de plan que fracasaría si Sam Altman, el director de Google o las personas que están detrás de DeepSeek dijeran «no»? Entonces no es ningún plan.
Si las empresas de IA conservan la autoridad para decidir destruir el mundo —si es que esa decisión sigue estando en sus manos—, entonces el mundo se acabará automáticamente. Debe haber un paso en el plan que despoje a las empresas de IA de su poder ilimitado para construir dispositivos apocalípticos.
* Según nuestra experiencia, estos escritos tienden a estar cargados de retórica y tener poca sustancia, y a menudo alternan discretamente entre afirmaciones contradictorias según lo que esté de moda o sea políticamente conveniente en cada momento. No nos da la sensación de que sean descripciones honestas y transparentes, ni siquiera de las perspectivas reales de los jefes de laboratorio, lo que los hace menos útiles en comparación con leer las opiniones discrepantes de otros. Pero esa es nuestra propia opinión; si te acercas a este tema con una mirada nueva y quieres evaluar por ti mismo si otras partes tienen buenos contraargumentos que no hemos abordado aquí, entonces no tienes por qué fiarte de nuestra palabra sobre cuáles son las mejores fuentes.
† Si resulta que necesitas la intervención de un director de laboratorio para algo y nos pides consejo, diríamos que la opción menos mala es probablemente Demis Hassabis. Entre los principales jefes de laboratorio con los que al menos uno de nosotros se ha relacionado —que, en 2025, son todos—, Hassabis es el único que hemos visto cumplir sistemáticamente su palabra en sus tratos, y parece haber tomado menos decisiones destructivas.