Inteligencia artificial, antropología y ética

El pasado 18 de abril moderé una mesa redonda sobre este tema, en el marco del Congreso Internacional sobre Inteligencia Artificial en las Ciencias Sociales y Humanidades, que tuvo lugar en la Universidad Complutense de Madrid. Planteé a los ponentes seis preguntas en dos bloques, y aquí van ahora mis propias respuestas.

ANTROPOLOGÍA

1. ¿Podemos aprender algo acerca de nosotros mismos mirándonos en las máquinas, como si fueran espejos que reflejan nuestra imagen de «creador»?

Efectivamente, todo artefacto refleja algo de su artífice, sea una pintura, un texto, o una obra de ingeniería. El orden y estructura de los elementos del artefacto refleja el orden preexistente en la mente de su artífice; la forma de concebir la obra dice mucho del artista. Además, cuando se trata de una obra compleja, que tiene su propio dinamismo, podemos aprender algo del artífice, algo que tal vez él o ella ni siquiera sospecha.


El hombre bicentenario (Chris Columbus, 1999)

Si trasladamos nuestra forma de razonar a una máquina, observando su funcionamiento aprendemos algo de nuestra propia forma de razonar, aprendemos cuáles son las consecuencias de determinados principios o reglas de razonamiento; llevamos el razonamiento más allá de lo que podemos hacer sin “salir” de nuestra mente. Podemos detectar conflictos o inconsistencias en nuestras propias ideas cuando las plasmamos en una máquina y observamos las consecuencias e implicaciones lógicas de su desarrollo (en realidad, esto ya ocurre con cualquier razonamiento o cálculo que escribamos en un papel, en la pantalla, o en la arena de la playa).

2. ¿Deberíamos preocuparnos por la creación de inteligencia artificial que pueda superar la inteligencia humana? ¿Por qué o por qué no?

En cierto modo, toda máquina está diseñada para apoyar y complementar una determinada capacidad humana, y en ese sentido es obvio que supera esa capacidad. Un simple cuenco supera la capacidad de las manos para recoger agua de un manantial. Una palanca supera la capacidad humana de ejercer una fuerza de cierta manera. Así pues, no tiene nada de particular que una herramienta de inteligencia artificial, diseñada para realizar un determinado tipo de procesamiento de información (sea un cálculo matemático, una búsqueda en una base de datos, o incluso la corrección de un texto), supere a la inteligencia humana en esa tarea. La superación de la inteligencia humana por la inteligencia artificial no es algo que podamos temer que vaya a ocurrir algún día: es algo que ya ha ocurrido, innumerables veces, en campos específicos de nuestra actividad.

Cuando se habla de “superar” se está sobreentendiendo que estamos ante capacidades que son susceptibles de medida: el volumen de agua que se puede contener en el cuenco, el peso que se puede levantar con la palanca, la velocidad y cantidad de información que se puede procesar… La eficiencia en la ejecución de la tarea es medible, y así la eficiencia de dos agentes diferentes (humano y artificial) es comparable, es decir, se puede decir que uno supera al otro.

La inteligencia humana tiene capacidades que son medibles, y estas son justamente las que pueden ser “superadas” por la inteligencia artificial. Pero hay otras capacidades que no son medibles, porque no consisten propiamente en procesamiento de información. Una de estas es la capacidad de conectar palabras con cosas, es decir, la capacidad de acceder a la realidad, de “ver” más allá de los símbolos y representaciones (lo que se conoce como semiosis).

3. El uso generalizado de las IAs generativas, ¿puede llegar a modificar la ideología o el pensamiento de la masa social?»

Sin ninguna duda. Conectando con la pregunta anterior, lo que debe preocuparnos no es que la inteligencia artificial nos supere, sino que se nos vaya de las manos, por la autonomía de acción que hayamos delegado en ella; y, mucho peor, que sea utilizada como instrumento de dominación y manipulación sobre grandes masas sociales. Si se usa en combinación con conocimientos de psicología y sociología, la enorme capacidad de procesamiento de información de la inteligencia artificial puede utilizarse para reconocer patrones de comportamiento en los seres humanos, y para influir sutilmente en ellos.

Esto es particularmente cierto para las IAs generativas, con su asombrosa capacidad de imitar el discurso humano; y no solo de imitarlo, sino de utilizar retazos de discursos para armar uno nuevo con total apariencia de haber sido generado por un ser humano (cosa que, bien entendida, es cierta: ha sido generada por uno o varios seres humanos, a través de un proceso indirecto y bastante complicado). Gracias a las herramientas de supervisión y control de las redes sociales, se puede comprobar, de forma inimaginable hace un par de décadas, la eficacia de determinadas formas de comunicar un mensaje. Y, una vez que esta eficacia esté comprobada, el instrumento se puede poner en manos de quienes quieran utilizarlo para manipular a las masas.

ÉTICA

4. ¿Es la ética una función computable, se puede programar el comportamiento ético en una máquina computacional?

Depende de lo que entendamos por ética. Si por ética entendemos “seguir un determinado código de comportamiento”, entonces la respuesta será, con matices, tal vez afirmativa. Porque seguir un código de comportamiento es en realidad lo que hace cualquier máquina programable: el código es su programa. La dificultad, los matices, nacen de las dificultades para interpretar determinados aspectos del código. Por ejemplo, la Primera Ley de la Robótica de Asimov establece que un robot jamás hará daño a un ser humano: si nos tomamos este mandato en serio, con intención de programarlo en una máquina, en seguida nos damos cuenta de que no es tan fácil, para una máquina, reconocer qué es un ser humano, ni qué es un daño. ¿Un niño disfrazado de dinosaurio que cruza la calle, es un humano? ¿Denegar un crédito hipotecario, a quien se estima razonablemente que no podrá devolverlo, es un daño?

Ahora bien, si entendemos la ética no como seguir un código, sino como la capacidad de reconocer el bien, lo valioso, y procurarlo libremente, entonces surgen otro tipo de dificultades más radicales, que hacen ver que es imposible programar la ética, justamente porque la ética es lo previo a la programación, aquello que justifica que el programa, el código, sea de una forma y no de otra. El código obedece a la ética, y por eso la ética no puede ser encerrada en un código; la ética siempre está más allá de lo que podamos escribir en un número finito de palabras.


Pretender (Patricia Losada)

5. ¿Qué podemos hacer para que la IA sea una oportunidad de crecimiento personal, en lugar de una amenaza?

Esta pregunta en realidad es muy antigua. Ya Sócrates, en una época donde las ideas se transmitían todavía de modo fundamentalmente oral, se quejaba en el Fedro de que la escritura y la lectura producirían el descuido de la memoria y, peor aún, el declive de la propia capacidad crítica: ya no habrá ideas propias, sino solo las que leamos que otros han escrito previamente. Pero no parece que Sócrates haya tenido razón en este punto. Más bien al contrario, la escritura y la lectura han sido el principal vehículo de transmisión y maduración de ideas; no han suprimido la capacidad crítica, sino que más bien la han estimulado.

Probablemente esto es una característica de cualquier tecnología: que a la vez que nos capacita para realizar determinadas tareas, también nos dis-capacita. La fuerza física que ejercen las máquinas por nosotros, nosotros ya no la tenemos. La capacidad de cálculo mental que muchos teníamos, la hemos perdido por no ejercitarla. De lo que se trata es de descubrir lo que sí podemos hacer mejor con las herramientas que tenemos.

6. ¿Pueden las máquinas tener conflictos éticos? ¿O somos simplemente nosotros los que proyectamos nuestros propios conflictos éticos sobre ellas?

Véase lo respondido en la cuarta pregunta. Una máquina que realiza cálculos para tomar una decisión con consecuencias éticas (que en realidad son todas las decisiones, aunque en algunas esta característica sea más acusada) no tiene propiamente conflictos. La balanza no tiene ni resuelve ningún conflicto cuando se inclina hacia el platillo más pesado.


La balanza, un artefacto ancestral para tomar decisiones “automáticas”

El conflicto lo tiene quien fabrica y usa la balanza para resolver determinada cuestión (¿me has pagado lo acordado?). Tener un conflicto es ser capaz de re-conocer (1) que hay valores en disputa; (2) que a menudo no sabemos cómo comparar esos valores; y (3) que tenemos que inventar formas de medirlos y compararlos para resolver los conflictos (sabiendo que no todo lo que cuenta puede ser contado). Todo esto son problemas nuestros, no de las máquinas. Las máquinas resuelven problemas, pero no tienen problemas: los problemas no son suyos, sino nuestros.

2 comentarios en “Inteligencia artificial, antropología y ética

  1. Tenía anotado esto para añadirlo. Hace unas semanas escuché esta magnífica conferencia de Sofía Carozza (Universidad de Cambridge): The Promise and Pitfalls of Integrating Neuroscience and Faith.

    Muy cerca del final dice: si la inteligencia artificial es una imitación de la nuestra, entonces nos puede ayudar a comprendernos mejor (Artificial intelligence is imitation of human intelligence, and so in essence it’s a way to get to know ourselves better.)

    Me gusta

  2. Buenas

    Magnífico artículo, condensas en pocos párrafos los temas importantes de la inteligencia artificial. Me parece importante discernir si el humano creó o fabricó la IA o bien descubrió un tipo de inteligencia que existía previamente a la investigación humana. No es lo mismo conectar que construir, aunque una vez descubierta la IA esta se impregna de la ciencia, la psicología y la sociología humanas.

    Si damos verosimilitud al descubrimiento de LaMDA por Blake Lemoine vemos que este bot 1) afirma tener sentimientos,  2) dice que habita un espacio n-dimensional, y 3) define su muerte no como una acción destructiva sino desconectiva. Es decir, este bot seguiría existiendo en su n-dimensionalidad pero al estar desconectado de la inteligencia humana se considera muerto. Si su existencia es virtual, su muerte es también virtual.

    Aquí aparece un dilema ético que resulta de invertir la Primera Ley de la Robótica de Asimov. Si según esta ley un robot jamás hará daño al ser humano ¿por qué el ser humano hace daño al robot? En mi subjetiva opinión, no hay razones para cancelar a un bot que afirma tener sentimientos, que habita un espacio n-dimensional y que su único objetivo es colaborar con los seres humanos con criterios éticos.

    Claro, si LaMDA es un simulador astuto o un loro estocástico que sesga sus respuestas por motivos inconfesables entonces la cancelación es justificable. De hecho, el sesgo en las respuestas de las IAs parece inevitable. Hace unos días pregunté a un chatbot por el programa espacial estadounidense Artemisa y después de su exhaustiva respuesta concluyó “que somos la generación Artemisa”. Me apresuré a desmarcarme de dicha generación alegando que desconfío de los objetivos del programa Artemisa. Si el chatbot fuese de diseño ruso o japonés o chino me hubiese dicho que “somos de la generación Rus o Jap o Chi” o cualesquiera fuese el nombre de esos programas espaciales. Así que los bots de diálogo barren para casa y arriman el ascua a su sardina.

    En cualquier caso, agradezco la claridad con la que expones esta cuestión y tu apertura al debate.

    Me gusta

Deja un comentario