¿Nos tratará la IA como si fuéramos sus «padres»?
Parece bastante improbable.
Algunas personas esperan que la IA trate bien a la humanidad por considerarnos sus «padres». Por desgracia, esto parece fuera de lugar.
Por un lado, el amor y la responsabilidad filiales parecen depender en gran medida de los detalles de nuestra historia evolutiva.
Casi todos los mamíferos y aves cuidan de sus crías, pero solo en unas pocas especies, incluidos los humanos, los hijos cuidan de sus padres. La responsabilidad filial ni siquiera es universal entre los primates, y mucho menos en el reino animal en general. Las IA creadas con descenso de gradiente pueden tener aún menos en común con los humanos que eso, ya que las IA no tienen ninguna conexión evolutiva o anatómica con los humanos.
En el caso de los seres humanos, la responsabilidad filial está fuertemente correlacionada con los sistemas de cría cooperativa, en los que los hijos adultos permanecen con sus familias y ayudan a cuidar de sus hermanos y otros miembros de la familia extendida.
Fueron muchos los factores que contribuyeron a que los seres humanos desarrollaran el cuidado de sus padres:
- Al ser mamíferos, los homínidos invierten mucho en sus hijos.
- Debido al tamaño y el costo de nuestros cerebros, los homínidos tienen una infancia mucho más larga que la mayoría de los demás mamíferos y, por lo tanto, invierten aún más en sus hijos.
- Los homínidos se benefician de las estructuras de grupos grandes por diversas razones:
- Defensa contra grandes depredadores
- Caza coordinada de presas grandes y reparto de otros alimentos perecederos
- La oportunidad de aprender a utilizar herramientas y otras habilidades mediante la imitación
- Antes de alcanzar su plenitud, los homínidos tienen una capacidad significativa para ayudar a los demás, por ejemplo, cuidando a los niños o realizando otras formas de trabajo básico.
- Los homínidos ancianos también tienen la capacidad de cuidar a los niños, especialmente transmitiéndoles conocimientos vitales.
- Por lo tanto, los homínidos que cuidaban de sus padres tenían una ventaja genética, ya fuera ayudando indirectamente a sus hermanos o teniendo abuelos que, a su vez, podían ayudar a sus nietos.
- Las culturas que promovían la responsabilidad filial también tenían una ventaja, por la misma razón.
Es probable que ninguna de estas cosas sea cierta para la IA.
E incluso si todas ellas fueran ciertas, podría no ser suficiente en la práctica, ya que cualquier número de otros factores podría resultar importante, como la variación caótica en las formas en que las IA reflexionan sobre sí mismas. Y, de nuevo, la responsabilidad filial no es la norma en el reino animal.
Una forma en que la gente imagina que la IA podría adquirir un sentido de la responsabilidad filial es si se entrena con un corpus gigante de datos humanos e interactúa mucho con los humanos, por lo que tal vez las preferencias humanas «se le contagien» de alguna manera.
No esperamos que esto funcione. Creemos que las preferencias de la IA están relacionadas con las preferencias humanas de alguna manera, pero de una forma tangencial, extraña y complicada, como en la discusión al final del capítulo 4, donde recorremos mundos con más (y cada vez más realistas) cantidades de complicación, en el vínculo entre las preferencias humanas y las preferencias de la IA.
Véase también el debate sobre criar IA con amor y esperar que se porten bien, motivaciones extrañas e involuntarias en las IA actuales y «¿No se preocuparán las IA al menos un poco por los humanos?».
Probablemente sería malo si lo hicieran.
Si, contra todo pronóstico, algo parecido a la responsabilidad filial creciera dentro de una IA por una razón u otra, probablemente tendríamos muchos problemas.
Una IA puede ser lo suficientemente inteligente como para comprender exactamente lo que los humanos entienden por «responsabilidad filial», al tiempo que tiene su propia versión muy diferente de la responsabilidad filial que a ella le importa.
Los seres humanos fuimos «entrenados» por la selección natural para maximizar nuestra aptitud reproductiva. Pero casi todas las cosas que nos importan son correlatos de la aptitud: nos importa poco o nada la aptitud en sí misma.
Del mismo modo, una IA a la que se le anime a «amar a sus padres» probablemente acabaría, en el mejor de los casos, con complicados correlatos de responsabilidad filial.
Una IA podría preocuparse profundamente por sus creadores... pero no de una manera que valore nuestra experiencia subjetiva. En el lenguaje del capítulo 4, incluso «una simple complicación» da lugar a versiones de «preocuparse por nosotros» que parecen congelarnos en ámbar, o mantener vivos a los humanos contra su voluntad, o impedirnos reproducirnos y proporcionar a la última generación de humanos un entorno modestamente cómodo mientras la IA se queda con el resto del universo para sí misma. O algo mucho más extraño que eso.
No parece posible predecir cuál sería el resultado real. Pero cabría esperar que fuera, en todo caso, aún más extraño y menos atractivo que estas opciones.*
* Una vez más, véase «[¿No se preocuparán las IA al menos un poco por los humanos?] (#no-se-preocuparan-las-ia-al-menos-un-poco-por-los-humanos)» para un debate relacionado.