Ética para Náufragos

Náufragos es un podcast realizado por Sergio F. Núñez en el que trata muy diversos temas: el podcast en el que hablamos de problemas reales a los que no solemos mirar a la cara, así lo presenta él. En el último episodio –La ética de la inteligencia artificial– publicado hace apenas unos días, dialoga conmigo y con Blanca Rodríguez López, que es Coordinadora del Máster Universitario en Éticas Aplicadas de la Facultad de Filosofía de la Universidad Complutense de Madrid. Así presenta Sergio el tema:

Quiero saber qué pasa con las máquinas y con su ética… si es que la tienen. No porque me preocupe el presente si no porque pienso en el futuro y en cómo la evolución puede meternos en problemas. Algo tan simple como los coches autónomos… seguro que te has preguntado alguna vez quién será responsable de los accidentes que provoquen… ¿dueño? ¿fabricante? ¿ingeniero?

Cuando contactó conmigo, allá por enero, la crisis del coronavirus aún no se había desatado en Europa. En estos momentos parece que no se puede hablar o escribir de otra cosa, pero lo cierto es que ni él ni yo somos expertos en cifras, análisis y rumores. Así que coincido plenamente con él en que, sumándonos a los aplausos a nuestros héroes y las lágrimas por nuestras víctimas, lo nuestro es apartarnos y aportar en donde sí podemos: la idea de este podcast es la convertirse en un refugio que vaya más allá del día a día, que sea bomba de oxígeno para los que necesitan escapar de lo que está pasando.

Publico ahora el texto en forma de entrevista que preparé para esta ocasión con las preguntas que él me sugirió. El podcast realizado finalmente es bastante diferente a este texto (gracias también a la intervención de Blanca).


¿Cómo se aborda desde un punto de vista ético el desarrollo de la inteligencia artificial?

Antes que nada hay que definir qué entendemos por “inteligencia artificial”, ya que hoy día se denomina “inteligente”, porque suena más guay, cualquier sistema que procesa información de su entorno, por muy elemental que sea este procesamiento. Por ejemplo, algunos se empeñan en decir “inteligente” a una habitación que enciende la luz cuando entras en ella.

Así que no basta con procesar información para ser “inteligente”. Más propiamente hablando, la inteligencia artificial es la que está realizada en un sistema computacional, capaz de encontrar soluciones no explícitamente programadas a determinados problemas. Por ejemplo, puedo programar un sistema explícitamente con la mejor estrategia posible en el juego del Tres en Raya, y no es tan difícil; pero solo sería propiamente inteligencia artificial si ese sistema es capaz de descubrir por sí mismo cuál es esa estrategia. Los oyentes más mayores recordarán la película de los Ochenta, Juegos de Guerra


Aprendiendo a jugar al Tres en Raya en las escenas finales de Juegos de Guerra

Pero hay varias formas de inteligencia artificial…

Sí, el término “inteligencia artificial” agrupa en realidad una variedad de técnicas muy diversas, desde la aplicación de reglas de razonamiento abstractas, hasta el mero descubrimiento de patrones en grandes cantidades de datos. Dentro de esto último podemos incluir el “aprendizaje por imitación”, a partir de datos de comportamiento de una población muy grande de personas.

La ética en la inteligencia artificial se puede abordar principalmente de estas dos maneras: uno, mediante el razonamiento a partir de reglas abstractas (que sería el caso de las Tres Leyes de la Robótica de Isaac Asimov); y dos, mediante la imitación del comportamiento supuestamente ético, como cuando se intenta imitar a los conductores humanos al volante de un vehículo (véase, por ejemplo, el caso de la Moral Machine del Instituto Tecnológico de Massachusetts).

¿Qué importancia tiene “hoy”?

Pues mira, por un lado podemos considerar sistemas que se limitan a asesorar a un agente humano en sus decisiones, tal como un sistema que recomienda contratar a una persona, conceder un préstamo bancario, o incluso otorgar la libertad condicional a un preso. En este caso la decisión última la toma el agente humano, pero aun así queda el problema, entre otros muchos, de que no basta con dar una recomendación, sino que esta debe ser razonada. A menudo ocurre que los sistemas de inteligencia artificial son tan complicados que es muy difícil saber por qué han llegado a determinada conclusión. Es lo que se denomina el problema de la falta de transparencia o “explicabilidad” de las decisiones.

Y está el problema de los sesgos…

Efectivamente, hay muchos otros problemas muy serios en este tipo de sistemas. Supongamos que diseñamos un sistema para que recopile información sobre cómo una determinada población toma sus decisiones, por ejemplo los jueces a la hora de decidir sobre la libertad condicional; entonces estamos construyendo un sistema automático que imita el comportamiento de esos jueces, lo que implica la posibilidad, muy real, de recrear determinados sesgos, conscientes o inconscientes. Tener un comportamiento ético no puede consistir simplemente en imitar lo que hacen otros. Esto ha sido un principio constante en el pensamiento ético occidental desde su nacimiento en la Grecia clásica.

El problema se agrava, como te puedes imaginar, cuando el sistema no solo asesora, sino que incluye además la capacidad de tomar decisiones de forma totalmente autónoma. Aquí las consideraciones éticas adquieren si cabe mayor relevancia.

¿Puede la ética llegar a ser un freno en el desarrollo de este tipo de tecnología?

Naturalmente que la ética puede ser un freno. Necesitamos el freno para no salirnos en las curvas, para no atropellar a la gente. Pero sería un error pensar que la ética es ante todo freno, barrera.

Yo entiendo que la ética, más que el freno, es el verdadero motor del progreso tecnológico. La ingeniería se propone cambiar el mundo, es decir, manifiesta disconformidad con el estado actual de las cosas, que no deberían ser así, sino de otra manera. Los ingenieros queremos modificar el curso de los ríos y redistribuir el agua que baja de las montañas para que riegue unos campos u otros; queremos calentar una vivienda (o enfriarla) porque no nos conformamos sin más con la temperatura que nos ofrece la naturaleza; queremos mejorar los cultivos, la producción de alimentos, la distribución de energía eléctrica.

¿Y dónde entra ahí la ética?

A ver, la ética es, ante todo, reflexión sobre los fines de la acción humana, fines que valen la pena y fines que no valen la pena. Sin esta reflexión sobre los fines, la tecnología caerá en la búsqueda incesante de una eficacia que no se sabe para qué se quiere.

El problema de la mentalidad tecnocientífica moderna es que está muy entrenada para resolver con eficacia determinados tipos de problemas, pero en cambio apenas está entrenada para reconocer y razonar sobre los problemas que vale la pena resolver. No estamos acostumbrados a una ética racional, tendemos a pensar que la ética es sociológicamente tan cambiante que, en el fondo, es mera cuestión de opinión y preferencia.

Hay una frase de Einstein que me encanta y que resume maravillosamente todo esto que estoy diciendo. Fue en una conferencia de 1941, en plena Segunda Guerra Mundial: lo que caracteriza nuestra época –dice– es la perfección del método y la confusión de objetivos.


Lo que caracteriza nuestra época es
la perfección del método y la confusión de objetivos
.

¿Tienen aún vigencia las leyes éticas elaboradas en el pasado o ha sido necesaria una revolución?

Está claro que cada revolución tecnológica introduce nuevos problemas éticos. Antes teníamos máquinas que podían fallar, podían explotar causando grandes destrozos, y, sobre todo, podían ser usadas con fines perversos. Pero ahora tenemos máquinas que pueden tomar decisiones de forma completamente autónoma – les estamos dando ya ese poder. Nuevos problemas requieren nueva reflexión. No creo que la ética sea algo preexistente a la tecnología; la ética surge de la vida, de la evolución de la sociedad. No basta con aplicar esquemas clásicos de razonamiento ético, cuando los mismos problemas planteados por la inteligencia artificial han hecho saltar por los aires esos esquemas.

De todas formas, no me gusta hablar de “leyes éticas”. La ética tiene que ver principalmente, como dije antes, con la reflexión sobre los fines, los valores, lo que vale la pena y lo que no. La ética tiene que inspirar el desarrollo de la ley, pero no puede ser “encerrada”, “enlatada”, en un código, una ley escrita. Los valores siempre tienen vigencia, pero también los estamos conociendo siempre mejor. Por eso las leyes escritas no pueden ser completamente fijas, de una vez para todas; no tanto porque ahora decidamos que lo bueno es otra cosa, sino más bien porque se plantean nuevos problemas que requieren nueva reflexión. Nunca terminamos de conocer qué es lo bueno.

No todos nos regimos por los mismos valores éticos, ¿quién decide cuáles deben ser los parámetros que rigen la ética de la IA que está por venir?

Discúlpame, pero para mí esta pregunta tiene tan poco sentido como estas otras: ¿quién decide cuál es la verdadera estructura de la materia, las reglas genéticas de la herencia biológica? La respuesta es: Nadie, y Todos. No podemos delegar nuestro propio juicio en un Ministerio de la Verdad tal como lo ideó George Orwell en su novela 1984, que siempre está de actualidad: ni en cuestiones científicas, ni tampoco en cuestiones éticas. Nadie es dueño absoluto de la verdad.

La ética, como cualquier otra rama del conocimiento humano, es difícil. Incluso es la más difícil, porque es la que nos toca más de cerca y todos tenemos algo que decir sobre ella. La sabiduría ética universal progresa gracias a todos, y las distintas tradiciones éticas de la humanidad tienen mucho que decir, lógicamente. Pero no hay ninguna institución humana que tenga la última palabra ética. ¿Quién iba a ser, la ONU?

Lo que no acepto de ninguna manera es que los gobiernos sean quienes deciden lo que está bien y lo que está mal. Si lo justo es lo que decreta el Parlamento, eso sería tanto como decir que no puede haber leyes injustas. Los gobiernos, los legisladores, también tienen la obligación de buscar el bien.

¿Crees que puede llegar a generar problemas entre gobiernos?

Claro que generará problemas. Primero, porque dentro de una búsqueda honesta del bien, que como ya digo es difícil, puede haber diferentes concepciones éticas en conflicto. Un conflicto que posiblemente no terminará nunca de resolverse.

Pero no seamos tan ingenuos de pensar que todos los gobiernos quieren el bien de sus ciudadanos, siempre, y en todo lugar. Perdóname si soy un poco drástico. Lamentablemente, a muchos gobernantes lo único que les interesa de verdad es permanecer en el poder. A veces tomarán decisiones para mantener contenta a la población que les vota; pero a veces –y esto es un problema que se ha agudizado con determinadas tecnologías de inteligencia artificial– no resistirán la tentación de usar la tecnología para controlar mejor a la población. Tenemos ejemplos recientes de difusión de noticias falsas (fake news) para manipular la opinión pública, y en algunos casos se trata de noticias fabricadas con sistemas de inteligencia artificial, indistinguibles en la práctica de noticias escritas por humanos.

¿Cómo sería una IA 100% autónoma sin la ética necesaria? ¿Quién se haría responsable de los errores/delitos/acciones cometidos por la IA?

Es justamente el problema al que aludía antes, cuando a un sistema automático le damos la capacidad de tomar decisiones de forma totalmente autónoma. El resultado puede ser desastroso, por el inmenso poder que puede llegar a adquirir. Salvo que consideremos que las máquinas pueden llegar a ser responsables de sus actos –y personalmente estoy muy, muy lejos de pensar de esa manera– la responsabilidad tendrá que repartirse entre el fabricante del sistema, el dueño, el legislador que ha permitido la proliferación de dichos sistemas…

Imagínate un sistema de conducción autónoma gobernado por un conjunto de reglas que se actualizan periódicamente, como los mapas del GPS. Pero, en este caso, se actualizan conforme patrones de decisión detectados analizando las respuestas de millones de personas que opinan sobre diversas situaciones de peligro en la conducción, como en la Moral Machine de la que hablaba antes.

El fabricante no ha decidido el funcionamiento concreto del vehículo, ni tampoco lo ha decidido cada una de esas personas encuestadas por millones, ni menos aún el dueño. La decisión es fruto de una especie de votación universal, donde nadie sería responsable; peor aún, donde no importa si la decisión es razonable, sino solo cuánta gente la ha votado. Lo irresponsable es poner en circulación semejante sistema… Sin mencionar la posibilidad, muy real en el mundo en que vivimos, de que el sistema autónomo de conducción sea pirateado para convertir tu coche en un arma asesina…

Entonces, ¿no crees que las inteligencias artificiales pueden llegar a ser libres? En ese caso, ¿podrían llegar a acabar generando su propia ética?

En una palabra, No. Pero en una cuestión tan complicada, seguro que cabe hacer matices. Si nos limitamos a hablar de la inteligencia artificial que somos capaces de concebir hoy día, es decir, la inteligencia computacional, la que de una forma u otra al final se reduce a seguir mecánicamente un conjunto de reglas, entonces es obvio que una IA no puede ser libre. No puede ser libre, porque es esclava de sus reglas de funcionamiento. Una IA es algo muchísimo más complicado que una polea, pero no es más libre. Hablar de máquinas y libertad es como hablar de agua y aceite.

¿Puede un sistema de inteligencia artificial crear sus propias reglas? Sin duda, pero siempre conforme a reglas de orden superior que también tiene programadas. Hace unos meses leí sobre un robot que “desobedecía” a su dueño cuando este le ordenaba caminar hasta el borde de la mesa y provocar su caída. Un comentarista escribió enseguida: desobedece a su dueño, porque obedece a su programador.

Pero, con el desarrollo de la tecnología no será posible que…

Atención, que no es un problema meramente tecnológico que pueda ser resuelto con máquinas más potentes. Es que fabricar algo que no hace lo que yo quiero, sino lo que le da la gana… eso no es fabricar. Eso es, propiamente hablando, engendrar, traer hijos al mundo. A nuestros hijos, si les queremos como personas, procuraremos enseñarles a que piensen por sí mismos y tomen las riendas de sus vidas. Como padre sé muy bien que la tentación de sustituir el proceso educativo por un proceso de robotización –lograr que mi hijo haga lo que yo quiero, cuando yo quiero– es grande; pero esta tentación, lamentablemente, es mucho mayor en el caso de los gobernantes totalitarios, para quienes la autodeterminación de los ciudadanos ya no solo es molesta, sino simplemente inaceptable.

(Nota final: Ética para Náufragos es el título de un libro del filósofo español José Antonio Marina publicado en 1995).

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s