¿No es todo esto mero alarmismo de los líderes de la IA para ganar estatus y atraer inversión? | Si alguien la crea, todos moriremos | If Anyone Builds It, Everyone Dies

¿No es todo esto mero alarmismo de los líderes de la IA para ganar estatus y atraer inversión?

No.

A lo largo del libro, hemos expuesto nuestros argumentos para defender la tesis de que precipitarse en el desarrollo de la IA probablemente nos llevará a la muerte a todos. En el capítulo 3, analizamos cómo la IA tendrá sus propios impulsos y objetivos. En los capítulos 4 y 5, analizamos por qué es probable que la IA persiga fines que nadie pretendía, y en el capítulo 6, explicamos cómo las superinteligencias artificiales no solo tendrán un motivo, sino también los medios para matarnos a todos.

Este es el tipo de argumentos que te rogamos que evalúes a la hora de decidir si se debe detener la carrera hacia la superinteligencia. No se puede determinar si la investigación en IA va camino de matarnos a todos discutiendo sobre las maquinaciones de los ejecutivos de las empresas.

¿Buscan los directores generales generar expectación al hablar del «riesgo asociado a la IA»?

¿O están tratando de congraciarse con los investigadores y legisladores preocupados, y posicionarse como «los buenos»?

Estas preguntas no guardan relación con los hechos sobre cómo se comportarían las máquinas inteligentes.

Incluso si los directores generales de las empresas de IA están ansiosos por explotar los debates sobre el peligro para promocionar su producto, eso no significa que el trabajo que están haciendo sea inofensivo. Para determinar si es peligroso, hay que analizar la IA en sí misma como tecnología, no los comunicados de prensa que salen de los laboratorios.

Años antes de que existieran estas empresas, había investigadores y académicos sin ningún incentivo corporativo, incluidos nosotros mismos, que advertían contra la carrera por construir una IA más inteligente que los humanos. Hablamos con Sam Altman y Elon Musk antes de que cofundaran OpenAI y les dijimos que la idea de crearla nos parecía descabellada y que probablemente aumentaría el peligro. Hablamos con Dario Amodei antes de que se uniera a OpenAI y le desaconsejamos su incansable empeño por ampliar la escala de la IA (un proyecto que daría lugar a los LLM).

Y si nos fijamos en los mensajes de hoy, muchas personas sin incentivos corporativos están expresando su preocupación. Van desde respetadosacadémicos hasta el Papa Francisco, la presidenta de la FTC* y miembros del Congreso de EE. UU.

Es razonable tratar con cinismo las declaraciones de los directores generales de las empresas tecnológicas. No faltan ejemplos de ejecutivos de empresas de IA que muestran una doble cara, diciendo una cosa en entradas de blogs privados y otra diferente cuando testifican ante el Congreso. Pero pasar de «los directores de estos laboratorios son unos mentirosos» a «no hay forma de que la IA pueda suponer una amenaza grave» es muy extraño, cuando los propios laboratorios suelen minimizar esta cuestión. El padrino de este campo —ganador del Premio Nobel—, el científico vivo más citado, un goteo constante de denunciantes y cientos de investigadores visiblemente nerviosos están dando la voz de alarma al respecto. Nada en esta situación se parece al ciclo habitual de exageración corporativa. En circunstancias como estas, descartar la idea sin siquiera examinar los argumentos parece más ingenuidad que cinismo.

Preguntas como «¿Pueden los directores generales recaudar más dinero hablando de los peligros?» pueden decirnos algo sobre cuánto confiar en los directores generales, pero no nos dicen mucho sobre los peligros en sí. Si hablar del peligro es rentable, eso no afecta que el peligro sea real. Si no es rentable, eso tampoco afecta que sea real.

Si quieres averiguar si los peligros son reales, tienes que hacer preguntas como «¿Puede alguien crear una IA que se comporte de forma amistosa incluso después de superar la inteligencia humana?» y, en general, centrarte en los argumentos sobre la IA, en lugar de en los argumentos sobre las personas que están cerca. Por eso, al final, te rogamos que te centres en los argumentos en sí. Las consecuencias de equivocarse en esto son demasiado graves.

* La presidenta de la Comisión Federal de Comercio, Lina Khan, dijo en 2023: «En este punto tengo que optar por el optimismo. Así que voy a inclinarme por la estimación de menor riesgo… quizás, no sé, un quince por ciento [de que la IA nos mate a todos]».

¿Tu pregunta no fue respondida aquí?Envía una pregunta.