Ética para máquinas: diseño, respeto y responsabilidad

El lastre de una deficiente comprensión de la condición humana

Hablar de ética e inteligencia artificial está de moda. Pero no es solo una moda, sino una necesidad, porque las tecnologías basadas en la inteligencia artificial han llegado para quedarse, y van camino de hacerse con un poder inmenso sobre nuestras vidas. Por lo tanto, tenemos que conocerlas bien, para no dejarnos dominar por ellas (ni por los que las manejan), sino para ser nosotros los que estamos al mando.

Por otra parte, estoy convencido de que una comprensión adecuada sobre las cuestiones éticas en inteligencia artificial puede arrojar una luz muy interesante sobre nosotros mismos, y lo que significa llevar una vida ética libre y responsable, más allá de “seguir un código moral”. Es completamente cierto que los algoritmos tienen que reflejar valores éticos, pero pretender, como hacen algunos, que los valores éticos pueden traducirse en valores numéricos mediante los cuales el bien y el mal serían “computables” (es decir, calculables mediante algún tipo de fórmula matemática), supone una comprensión tremendamente empobrecida de la ética y la vida humana; una vida cuyo objetivo no es “hacer lo correcto”, sino crecer hacia una meta –una plenitud– que no está prefijada; una plenitud abierta.


Computar el bien y el mal…

Cuando hablamos de la relación entre inteligencia artificial y ética podemos distinguir al menos tres ámbitos diferentes: cuestiones éticas en el diseño de máquinas “inteligentes”, cómo tratar a esas máquinas (¿merecen respeto?), y en qué medida puede considerarse que la máquina es un agente moral responsable. Pero antes…

Inteligencia artificial: nociones básicas

Para entender bien lo que voy a decir a continuación es necesario tener unas nociones básicas sobre lo que es la inteligencia artificial, que asumo el lector ya conoce. De todas formas, y para que nos entendamos bien, diré que una inteligencia artificial es un sistema basado en ordenador que es capaz de recibir y evaluar información de su entorno, y encontrar soluciones no explícitamente programadas a determinados problemas.

Por ejemplo, puedo programar un sistema explícitamente con la mejor estrategia posible en el juego del Tres en Raya, y no es tan difícil hacerlo, porque es un juego bastante sencillo. Pero solo sería propiamente un sistema de inteligencia artificial si el programa es capaz de descubrir por sí mismo cuál es esa estrategia, es decir, si es capaz de “aprender” a jugar al Tres en Raya, ya sea mediante simulación o a partir de la experiencia de partidas reales con otros contrincantes. Los lectores más mayores recordarán la película de los Ochenta, Juegos de Guerra: en la escena final el protagonista hace que La Máquina juegue al Tres en Raya contra sí misma hasta que esta “comprende” que no puede haber estrategia ganadora, y entonces La Máquina aplica ese mismo resultado a la guerra nuclear.

El aprendizaje automático (machine learning) no es ciencia ficción, es una realidad tecnológica que se ha desarrollado prodigiosamente en los últimos años. Pero hay que entender bien en qué consiste este aprendizaje “de la máquina”, y por qué no hay nada mágico en que una máquina pueda “aprender” en este sentido limitado (hago notar que el verbo “aprender” debe entenderse en sentido figurado cuando se dice de una máquina).

Si una máquina prueba todas las posibles combinaciones de jugadas en el Tres en Raya, será capaz de jugar como si conociera la mejor estrategia posible, y puede ser sorprendente que lo logre, pero no hay nada “mágico” en ello. No es otra cosa que un sistema muy ingeniosamente diseñado para procesar la información del juego. Obviamente hay problemas mucho más difíciles, como el juego del ajedrez, que requieren un enfoque mucho más elaborado, y que no resulta tan eficiente para encontrar soluciones, debido a la propia complejidad del problema.

Ética en el diseño de la inteligencia artificial

Pero volvamos a esos tres ámbitos en los que podemos hablar de “ética para máquinas”. El primero es la consideración de los aspectos éticos en el diseño y construcción de inteligencias artificiales. La tecnología no es neutra: cualquier tecnología se desarrolla para lograr determinados fines; de hecho, el análisis de los fines (requisitos, objetivos, goals) es el primer paso en un proceso de ingeniería: identificar y definir correctamente los problemas que hay que resolver. Y la valoración de los fines, y los medios para lograrlos (o sea, los fines intermedios), es justamente de lo que se ocupa la ética.

Es cierto que hay artefactos que se pueden utilizar para diversos fines, incluso muy diferentes del fin con que fueron diseñados (pensemos en tantos objetos que usamos como pisapapeles); pero eso no quita que en el diseño original ya se plasma un determinado fin, que es imprescindible, además, para comprender el artefacto tal como ha sido diseñado. Eso ya orienta una primera valoración ética de los sistemas de inteligencia artificial. No es lo mismo un sistema de diagnóstico capaz de encontrar patrones en imágenes médicas de pacientes oncológicos, que un sistema de diagnóstico del comportamiento de un potencial comprador basado en su historial de búsquedas en internet. Así pues, lo primero que hay que considerar en la valoración ética de una inteligencia artificial es el para qué ha sido diseñada. En esto la inteligencia artificial es igual que cualquier otra tecnología.

Sin embargo, a diferencia de otras tecnologías, la inteligencia artificial plantea una serie de desafíos éticos muy novedosos. Por un lado podemos considerar aquellos sistemas que se limitan a asesorar a un agente humano en sus decisiones, tal como un sistema que recomienda contratar o no a una persona, conceder un préstamo bancario, o incluso otorgar la libertad condicional a un preso. La recomendación se elabora a partir del análisis de grandes cantidades de datos históricos del comportamiento de otras personas en situaciones semejantes, y del resultado que se obtuvo –bueno o malo– aplicando la decisión que se adoptó en su momento acerca del contrato, préstamo o sentencia.

En este tipo de sistemas, la decisión última la toma el agente humano; pero, aun así, queda el problema, entre otros muchos, de que no basta con dar una recomendación, sino que esta debe ser razonada. A menudo ocurre que los sistemas de inteligencia artificial son tan complicados que es muy difícil saber por qué han llegado a determinada conclusión. Es lo que se denomina el problema de la falta de transparencia o “explicabilidad” de las decisiones. Esto provoca –afortunadamente, porque denota sensatez– bastante rechazo en las personas asesoradas, que no quieren seguir una recomendación que no esté bien argumentada.


La recomendación tiene que ser razonada, o provocará rechazo

Luego está el problema de los sesgos. Supongamos que diseñamos un sistema para que recopile información sobre cómo una determinada población toma sus decisiones, y luego extraiga una serie de patrones de comportamiento, y actúe conforme a ellos; por ejemplo, lo que hacen los jueces a la hora de decidir sobre la libertad condicional. Es decir, estamos construyendo un sistema automático que imita el comportamiento de esos jueces, lo que implica la posibilidad, muy real, de recrear determinados sesgos, conscientes o inconscientes. Pero es que tener un comportamiento ético no puede consistir simplemente en imitar lo que hacen otros; esto ha sido un principio constante en el pensamiento ético occidental desde su nacimiento en la Grecia clásica. El comportamiento ético no es el que es meramente conforme a determinados usos o costumbres (imitación), sino el que es razonado, razonable, racional.

El problema se agrava enormemente, como podemos imaginar, cuando el sistema no solo asesora, sino que incluye además la capacidad de tomar decisiones de forma totalmente autónoma. No es tan raro tener sistemas completamente automatizados. Ya los disfrutamos cuando se levanta la barrera de entrada al aparcamiento, cuando se detiene la trituradora de carne porque ha detectado que el operario ha metido la mano más de la cuenta… Pretender que no haya sistemas automatizados, que siempre tenga que haber un humano responsable a cargo de tomar la decisión última (el modelo human-in-the-loop) nos privaría precisamente de una de las mayores ventajas que nos ofrece la inteligencia artificial, que es la capacidad de tomar rápidas decisiones analizando mucha información en un lapso de tiempo muy breve.

¿Quién es el responsable?

Esto nos lleva a otra de las grandes diferencias que encontramos entre la inteligencia artificial y otras tecnologías que conocemos y dominamos mejor. Se trata de la distribución de responsabilidades. Cuando un sistema tiene algún tipo de fallo, buscaremos la responsabilidad entre todos aquellos que han intervenido en su diseño y construcción; y también entre aquellos que lo han usado, tal vez fuera de sus especificaciones técnicas (si un cirujano usa un cuchillo de cocina para operar, no puede culpar de su fracaso al fabricante). Pero cuando el sistema es muy complejo, las consecuencias de su uso –incluso un uso perfectamente conforme a su diseño original– son mucho más difíciles de predecir, y por lo tanto asignar responsabilidades es también mucho más difícil.

¿Cuál es el problema añadido con la inteligencia artificial? Pues que, como explicaba antes, la programación no es explícita, sino aprendida. Es decir, el programador no ha decidido cómo debe comportarse el sistema en cada posible situación, sino que lo ha diseñado para que “aprenda”, para que sea capaz de encontrar una estrategia exitosa a partir de su interacción con el entorno. Cuando un sistema se diseña de esta manera, es muchísimo más difícil predecir sus consecuencias y repartir responsabilidades por su mal funcionamiento.

Para evitar esto, podemos pensar que el diseñador o fabricante debería hacerse responsable en todo caso del funcionamiento del sistema, y debería someterlo a pruebas exhaustivas para asegurar que nunca se traspasarán determinados límites de seguridad. Es el enfoque tradicional en la ingeniería. Haciendo recaer la responsabilidad sobre el diseñador, nos aseguramos de que quien mejor conoce el sistema no vaya a cometer locuras, porque se la juega.

Ahora bien, una vez más, si nos limitamos a esto, nos quedamos sin algunas de las aplicaciones más prometedoras, apetecibles y fructíferas de la inteligencia artificial, el aprendizaje por imitación. Los frutos de este tipo de técnicas ya están aquí: reconocimiento de rostros, traducción automática, incluso imitación de los gestos de un cirujano para realizarlos con mayor precisión, rapidez y seguridad en beneficio del paciente. Es decir, lo que queremos es precisamente aprovecharnos de las posibilidades de un sistema que sale de fábrica “a medio diseñar”, cuyos detalles últimos de funcionamiento dependen de ese proceso de aprendizaje.

El caso más notable en los medios de comunicación es el de los vehículos autónomos, y el espinoso problema de decidir “a quién atropello” en una situación crítica de conducción. En el famosísimo Instituto Tecnológico de Massachusetts han desarrollado una “máquina moral” (The Moral Machine) que plantea diversos escenarios donde hay que elegir entre atropellar a unos viandantes u otros, o bien elegir entre atropellar a los viandantes o poner en peligro la vida de los pasajeros del vehículo, etc. De esta forma, a partir de las respuestas proporcionadas por decenas de miles de sujetos entrevistados sobre un gran número de escenarios, se aprendería una especie de “código moral de la conducción”. Algunos pretenden incluso que este código moral debería ser diferente en función del territorio en el que vaya a circular el vehículo…


Pruebas de un microbús autónomo en Berlín

Si el funcionamiento de un vehículo autónomo estuviera programado de esta manera, entonces el fabricante no habría decidido el funcionamiento concreto del vehículo en cada situación particular, ni tampoco lo habría decidido cada una de esas miles y miles de personas encuestadas, ni menos aún el dueño. La decisión sería fruto de una especie de votación universal, donde nadie sería responsable; peor aún, donde no importa si la decisión es razonable, sino solo cuánta gente la ha votado. Seguramente, lo irresponsable es poner en circulación semejante sistema. Sin mencionar la posibilidad, muy real en el mundo en que vivimos, de que el sistema autónomo de conducción sea pirateado para convertir tu coche en un arma asesina…

Ahora bien, ¿dónde está el límite? ¿Por qué nos parece aceptable el aprendizaje por imitación para reconocer rostros, para traducir de un idioma a otro, o para realizar una operación quirúrgica en los ojos, y en cambio es tan rechazable para conducir un vehículo? Al fin y al cabo, equivocarse en cualquiera de esas funciones también puede tener repercusiones con fuerte carga ética (recuerdo la película La Intérprete, dirigida por Sydney Pollack en 2005, donde la protagonista interpretada por Nicole Kidman dice en un momento dado que, si confundiera “matar” y “asesinar” en una traducción, cometería una grave negligencia profesional). En mi opinión, aplicar el aprendizaje por imitación a la conducción de vehículos autónomos no es necesariamente un error. Pero de lo que sí estoy seguro es de que a eso no se le puede llamar “aprendizaje ético”: una vez más, la ética no es un juego de imitación.

Máquinas inteligentes: respeto y responsabilidad

Me queda por comentar algo sobre otros dos ámbitos diferentes de la “ética para máquinas”, que están también presentes en los medios de comunicación, e incluso en los discursos de conocidos gurús internacionales. Me refiero a si las máquinas con inteligencia artificial son merecedoras de respeto, y si las debemos considerar agentes morales responsables.

Circulan en internet algunos videos donde se puede ver cómo un robot humanoide recibe una fenomenal paliza por parte de sus propios creadores (aunque el caso concreto que enlazo es una ficción). ¿Es esto un buen comportamiento ético con respecto al robot? Pues no, al menos en principio. Pero no porque el robot tenga ningún tipo de “dignidad” personal que merezca respeto. El robot es una máquina, no es una persona, no es ni siquiera un ser vivo. Pero eso no significa que podamos hacer cualquier cosa que nos apetezca con el robot. Si yo me dedico a romper los cristales de un edificio a pedradas, o a acuchillar obras de arte en un museo, o a destrozar electrodomésticos con un bate de béisbol… soy yo el que me hago daño a mí mismo, al dar rienda suelta a una violencia injustificada.


La violencia contra los robots engendrará violencia contra las personas

Dejando aparte –si fuera el caso– lo que implica la destrucción de propiedad ajena o de un posible valor artístico, ese comportamiento deja en mí una huella de agresividad, que muy posiblemente saldrá a flote posteriormente en mi relación con otras personas o incluso con otros seres vivos. Y la huella que deja en mí es tanto peor cuanto más humanoide sea la máquina, de modo análogo a como no es lo mismo lanzar dardos contra una diana cualquiera que contra una donde he clavado la cara de mi jefe… Pero en todo esto hay que hacer una salvedad: el comportamiento violento contra una máquina puede estar plenamente justificado cuando se trata de ensayos de laboratorio para probar su resistencia en condiciones adversas.

Finalmente, ¿qué podemos decir acerca de la “responsabilidad” atribuible a una inteligencia artificial? Pues, en pocas palabras, que no existe tal responsabilidad. Una inteligencia artificial, por mucho que “dé el pego”, no deja de ser una máquina esclava de sus reglas de funcionamiento. Una máquina no es libre, por tanto no puede ser responsable de sus actos. Hablar de máquinas y libertad es como hablar de agua y aceite. Una inteligencia artificial es algo muchísimo más complicado que una polea, pero no es más libre. Una máquina no tiene derechos ni deberes, no tiene dignidad propiamente dicha, es decir, dignidad personal.

No se trata de un problema tecnológico que pueda ser resuelto con máquinas más potentes y complicadas; es un problema de principio. La libertad no es una cuestión de complejidad mecánica. Fabricamos máquinas que hagan lo que nosotros queremos, esclavas perfectas. ¿Para qué vamos a fabricar máquinas que hagan lo que les dé la gana? Traer al mundo seres libres no es propiamente fabricarlos, sino engendrarlos.


Qué fácil es pintar robots que aparentan ser libres

En la ciencia ficción es muy fácil representar máquinas que superan su “maquinidad” y se hacen conscientes y libres, y toman sus propias decisiones. Pero es eso, ciencia ficción, literariamente muy eficaz como metáfora de nosotros mismos; porque somos nosotros los que podemos caer en una cierta robotización del cumplimiento de determinadas normas, y somos nosotros los que tenemos que superar ese mecanicismo vital, tomar las riendas de nuestra vida, pensar por nosotros mismos, ser creativos en la realización del bien, y así hacer florecer y “plenificar” nuestra propia humanidad.

(Una versión previa de este artículo se publicó en el número de abril de la revista Palabra, como parte de un dossier especial sobre el avance de la inteligencia artificial.)

La ética no es un juego de imitación

Galería

Esta entrada fue publicada originalmente Naukas. El pasado 5 de marzo la Universidad de Oviedo me invitó, a través de Pablo Revuelta, a participar en las II Jornadas de Ingeniería y Filosofía organizadas por su MediaLab, donde estuvimos debatiendo sobre … Sigue leyendo

El cerebro ético programado

Galería

Esta galería contiene 5 fotos

Esta entrada fue publicada originalmente en Naukas. Ética filosófica y ética neurocientífica Desde tiempos muy antiguos –un origen que más o menos convencionalmente podemos situar en la Grecia clásica– la reflexión filosófica sobre el comportamiento humano se topa con el fenómeno … Sigue leyendo

La técnica y la transformación de la naturaleza

Galería

Esta galería contiene 1 foto

El deseo de construir un mundo mejor late en la Modernidad desde sus inicios, y es el motor del progreso tecnológico: la ingeniería se propone “cambiar el mundo”, es decir, manifiesta disconformidad con el estado actual de las cosas, que … Sigue leyendo

Seminario: Cómo enseñar a tu robot a que se porte bien

Galería

Esta galería contiene 2 fotos

Ética para máquinas: Cómo enseñar a tu robot a que se porte bien Universidad de Navarra Seminario CRYF Martes 9 de abril de 2019 Presentación disponible en SlideShare Video disponible en YouTube Entrevista publicada en el Diario de Navarra, miércoles … Sigue leyendo