¿No necesitarán las IA que impere la ley?
Las IA podrían coordinarse entre sí sin incluir a los humanos.
No nos resulta obvio si habrá múltiples IA más inteligentes que los humanos y con capacidades comparables, de modo que pueda surgir una «civilización de IA» que necesite «derechos de propiedad de IA». Parece plausible que, en cambio, haya una única IA que, gracias a algún avance revolucionario, domine a sus posibles competidores utilizando su ventaja de ser la primera en llegar y, por lo tanto, controle el mundo entero.* O, suponiendo que existan múltiples IA, podrían colaborar en la construcción de un único agente sucesor que represente la combinación de sus objetivos. O tal vez las IA encuentren una forma de fusionar directamente sus mentes y quieran hacerlo para evitar una competencia costosa.
No estamos diciendo que necesariamente vaya a surgir una única IA dominante, sino que parece una predicción difícil. Por lo tanto, como mínimo, un plan que requiera que múltiples IA luchen por coordinarse entre sí no tiene un buen comienzo.
Pero supongamos, en contra de los argumentos anteriores, que el futuro incluirá algo parecido a una civilización de IA, con IA distintas que se coordinen para hacer cumplir algo parecido a los derechos de propiedad y el estado de derecho. ¿Podrían los humanos estar a salvo entonces?
Una observación básica en contra es que la sociedad humana no reconoce a ningún animal no humano como poseedor de derechos o protecciones legales, más allá de los que se establecen de acuerdo con nuestros valores y gustos, como las leyes muy limitadas que protegen los ecosistemas y las mascotas. Los humanos no respetaban los derechos de propiedad de los dodos. Ni siquiera respetábamos los derechos de propiedad de los humanos de otras culturas hasta hace relativamente poco tiempo.
Los humanos no tendremos las capacidades para hacer que valga la pena incluirnos en el comercio o en los tratados, en comparación con las inteligencias superhumanas de pensamiento rápido que nos ven como poco más que estatuas (como se discutió en el capítulo 1).
Consideremos dos IA que negocian entre sí y dicen: «Esto es mío y aquello es tuyo, y ninguna de nosotras afectará las cosas de la otra sin antes negociar algún tipo de intercambio mutuamente beneficioso». No tienen necesidad de decretar que la mayoría de los recursos de la Tierra «pertenecen» a los humanos, si estos no representan una gran amenaza y no pueden oponer mucha resistencia.
¿Podría una IA preocuparse de que, si nos roba nuestras cosas, la otra IA la considere una ladrona y se niegue a trabajar con ella? Lo más probable es que no, del mismo modo que tú no concluirías que un humano es un ladrón si lo vieras tomar huevos de una gallina en su granero. Es muy posible que las IA sean el tipo de entidades que traicionarían los derechos de propiedad de los humanos, pero no los derechos de propiedad de las IA, sin ninguna tensión ni contradicción. Y es probable que todas las IA prefieran drásticamente este resultado antes que participar en una alucinación conjunta en la que unos primates lentos y estúpidos controlan casi todo en la Tierra.
Algunas consideraciones técnicas respaldan firmemente este argumento intuitivo. En particular, es probable que las IA tendrán entre ellas diversos mecanismos de coordinación que no compartan con los humanos, como la capacidad de inspeccionar mutuamente sus mentes para verificar que son honestas y dignas de confianza. Quizás no necesiten adivinar si otra IA les va a robar; quizás puedan inspeccionar su mente y comprobarlo.
Incluso si eso es difícil, las IA podrían rediseñarse a sí mismas para volverse visible y legiblemente confiables para otras IA. O podrían supervisar mutuamente la construcción de una tercera IA en la que ambas partes confíen para representar sus intereses conjuntos, y así sucesivamente.†
Los humanos, por el contrario, no pueden participar en este tipo de acuerdos. Si una IA dice: «Claro, supervisemos juntas la creación de una nueva IA en la que ambas confiemos», es poco probable que los humanos seamos lo suficientemente hábiles para proponer un diseño mental confiable por nuestra cuenta, ni tampoco seremos lo suficientemente hábiles para distinguir entre las propuestas que nos engañarán y las que no. Incluso si existiera un grupo natural de mentes lo suficientemente hábiles para identificar y rechazar a los estafadores, creemos que es extremadamente improbable que la humanidad esté en esa clase.
Los humanos no tendrán poder de negociación para hacer cumplir los derechos de propiedad.
Supongamos que alguien logra establecer una ciudad en la cual, desde el primer día de su fundación, todas las decisiones importantes deben ser tomadas por ratones.
Hablamos de ratones literales, no de personajes de cuento que parecen ratones pero piensan como humanos.
Conforme a la ley, los seres humanos de la ciudad deben obedecer las decisiones que toman los ratones, según lo determinado por los ratones que corren sobre un tablero con diferentes opciones escritas en él.
Las leyes de la ciudad establecen que la mayor parte de las propiedades de la ciudad pertenecen a los ratones y deben utilizarse en beneficio de estos.
¿Qué pasaría después? ¿En la vida real?
Predeciríamos que esta ciudad acabaría en un estado en el que los ratones tendrían poco o ningún poder real y los humanos tendrían casi todo el poder.
No es necesario predecir el día exacto de la revolución de la ciudad, ni su nueva forma exacta de gobierno, para predecir que la situación en la que los ratones mandan sobre los humanos no es estable. Solo hay que darse cuenta de que la ciudad se encuentra en una extraña situación de no equilibrio. Así, se predice una ciudad futura con leyes diferentes en las que la mayor parte de las propiedades ya no pertenecerán a los ratones.
Este tipo de predicción no es certera —hay muy pocas cosas ciertas en los argumentos humanos—, pero también es un tipo de predicción que se puede hacer con precisión incluso cuando es imposible predecir con exactitud los acontecimientos futuros.
* En los debates sobre la IA, el concepto de «una única IA» se desmorona rápidamente. Si se replica una red neuronal u otra maquinaria que implementa una IA, ¿cuenta como múltiples IA o como una sola?
† Puede parecer que esto supone muchas molestias, pero si abre la posibilidad de una fiabilidad robusta y segura, los beneficios pueden ser enormes. Cuando es posible garantizar que las partes de un acuerdo no lo violarán, surgen muchas nuevas oportunidades de coordinación.