Si la historia comenzara más tarde, ¿estaría el mundo mejor preparado?
Esperemos que sí.
El tiempo adicional es significativo, pero solo si la humanidad lo utiliza para cambiar su rumbo.
En la tercera parte del libro, analizamos cómo la humanidad está lamentablemente mal preparada ante la superinteligencia y cómo se necesitan grandes cambios para evitar el terrible desenlace descrito en la historia de Sable.
Hay varias formas en que el mundo podría ser un poco más seguro frente a las superinteligencias artificiales descontroladas. Los gobiernos de todo el mundo podrían exigir que todos los laboratorios de síntesis de ADN verificaran que no están sintetizando nada que se sepa que sea peligroso. La Tierra podría realizar un gran esfuerzo para mejorar radicalmente la ciberseguridad de Internet, de manera que a las IA les resultara más difícil ocultar código en algún rincón oscuro.
Pero incluso eso probablemente no serviría de mucho contra una superinteligencia antagónica. Y, en cualquier caso, no hay que confundir el esfuerzo hercúleo que se requiere para conseguir un poco más de seguridad con los esfuerzos mucho menores, más fáciles de lograr e ineficaces que la humanidad está realizando actualmente en este sentido.
En el caso de la síntesis de ADN: incluso si los reguladores estadounidenses exigieran que las empresas de síntesis de ADN de EE. UU. evitaran sintetizar material peligroso, ¿habría algún laboratorio en otra parte del mundo que sintetizara ADN sospechoso por un precio lo suficientemente alto? ¿Y consistirían las restricciones a la síntesis de ADN en una simple lista negra que descartara virus conocidos (como la viruela), o implicarían un análisis más inteligente? ¿Qué tan difícil le resultaría a una IA lo suficientemente inteligente eludir un análisis así?
O en lo que respecta a la ciberseguridad: muchas empresas tecnológicas líderes podrían utilizar la IA para reforzar sus propias redes informáticas contra los ataques. Mientras tanto, la red telefónica de EE. UU. se puede hackear fácilmente de formas que permiten a espías extranjeros escuchar las llamadas de funcionarios estadounidenses, y los reguladores estadounidenses luchan por cerrar la brecha. Las IA «tontas» podrían encontrar y solucionar un montón de problemas superficiales de la ciberseguridad mundial, pero los problemas son bastante profundos. El tipo de inteligencia que se necesitaría para reformar todo Internet hasta el punto de que una superinteligencia no pudiera encontrar ninguna brecha sería, casi con toda seguridad, peligrosa por sí misma.
E incluso si la Tierra pudiera bloquear Internet y sus laboratorios de síntesis de ADN, eso no cambiaría realmente la situación a largo plazo. Una superinteligencia que tenga un canal para afectar al mundo para bien, también lo tendrá para el mal. Una superinteligencia fuera de control simplemente encontraría otro canal que no estuviera bloqueado, por ejemplo, creando su propia secta o religión, o comprando robots y dirigiéndolos para construir su propio laboratorio biológico secreto donde pueda realizar toda la síntesis de ADN que necesite. El momento adecuado para detener a una superinteligencia como esta es antes de que sea creada.