¿Por qué prohibir la investigación? Parece extremo.
Más avances podrían volver prácticamente imposible impedir que la gente creara superinteligencia.
En el libro, mencionamos cómo un solo artículo publicado en 2017 dio inicio a toda la revolución de los LLM al describir un algoritmo que hizo práctico entrenar IA útiles en hardware comercial especializado.
Si alguna vez se pudiera entrenar una IA potente en hardware de consumo ampliamente disponible, las medidas para prevenir la superinteligencia tendrían que ser onerosas y fracasarían más rápidamente.
Es por eso que la investigación en algoritmos de IA aún más potentes y eficientes también es un veneno letal para la humanidad.
Es una muy mala noticia, y no lo que quisiéramos. Pero parece ser la situación en la que estamos.
Ninguna ley puede impedir que los actuales científicos de la IA sigan pensando en algoritmos eficientes en la privacidad de sus mentes. Quizás algunas personas inicien una red clandestina para compartir los resultados de sus investigaciones. Algunas personas del sector de la IA ya declaran con orgullo que la humanidad debería morir a manos de la IA; es posible que hagan todo lo posible por seguir avanzando, sin importar lo que digan los demás.
Pero la investigación en IA se ralentizaría mucho si fuera ilegal, y más aún si se entendiera ampliamente que realmente se trata de un tipo de investigación que podría matarnos a todos. Se ralentizaría enormemente si se localizaran y detuvieran las redes clandestinas de ese tipo con la misma convicción con la que se detiene a las personas que intentan enriquecer uranio en su garaje, porque los peligros del mundo real se toman muy en serio.
La mayoría de la gente no intenta hacer cosas extremadamente ilegales que realmente alteren a las fuerzas del orden y a las agencias de inteligencia internacionales. Hacer ilegal la publicación de nuevos e ingeniosos algoritmos de IA disuadiría quizás al 99,9 % de las personas y a casi todas las empresas, y la policía y las agencias de inteligencia locales, nacionales e internacionales podrían encargarse del 0,1 % restante, que no obtendría ni de lejos el nivel actual de financiamiento académico.
Sería un mundo muy diferente al actual, donde es totalmente legal llevar a cabo los experimentos científicos más peligrosos de la historia y las grandes corporaciones invierten miles de millones de dólares en ello.
No sabemos cuántos avances más se necesitarán para que las IA sean lo suficientemente inteligentes como para investigar sobre IA y crear IA aún más inteligentes. Podría ser un solo avance. Podrían ser cinco. Pero los mejores algoritmos son tan letales como el mejor hardware. Son dos caballos tirando del mismo carro hacia un precipicio.