Conformidad con la norma

Hace un tiempo llegó a mi pantalla un artículo de Malle y Scheutz sobre el comportamiento ético de los robots [1] en el que se hace esta afirmación:

La acción moral, como hemos apuntado antes, es la acción en conformidad con las normas morales.
(Moral action, we suggested earlier, is action in compliance with moral norms).


I, Robot
(Alex Proyas, 2004)

Control de calidad

Actuar (o quizás funcionar) conforme a una norma es lo que hace (o debe hacer) cualquier artefacto. El control de calidad se basa en eso: en qué grado se cumple la norma, los requisitos que se deben satisfacer. El vino (que también es un artefacto) tiene un grado de alcohol bien definido (que depende de su denominación de origen). El motor de combustión interna no debe emitir gases contaminantes por encima de determinado límite. El sistema de firma electrónica no debe permitir alteraciones en el documento ya firmado.

Ahora bien, ¿qué diferencia a una norma moral de cualquier otra norma? ¿Por qué a algunas normas les ponemos la etiqueta moral? ¿Es un capricho, o hay alguna razón de fondo? ¿Las normas para limpiar y engrasar una escopeta de caza son normas morales? ¿Y las normas para presentar una reclamación en un restaurante? ¿Y las normas ortográficas?

A mi modo de ver, la norma remite a algo que está más allá de sí misma. Por eso la moral, o la ética, no puede terminar –o empezar– en la norma. La norma expresa el deber moral, pero no lo define. Es tan sencillo como preguntarse, ¿por qué esta norma y no otra? La norma moral está para proteger el bien moral, y solo puede escribirse la norma cuando uno ya tiene una cierta comprensión del bien moral en sí mismo y por sí mismo, aunque esta comprensión sea incompleta, mal definida, borrosa; aunque nadie pueda decir: “esto es el Bien, aquí está escrito y descrito perfectamente”. Pienso que una característica esencial del Bien es justamente la imposibilidad de describirlo perfectamente en palabras, la imposibilidad de encerrarlo en una expresión totalmente acabada.


Pretender (Patricia Losada)

Me atrevo a decir que la Verdad Absoluta es ab-soluta, ab-suelta, des-encadenada: o sea, justo lo que no puede ser encerrado en un conjunto de palabras y formulaciones. Y lo mismo el Bien Absoluto. La verdad y el bien absolutos son inalcanzables, porque alcanzarlos (por una mente limitada como la nuestra) es encerrarlos en palabras, y entonces dejan de ser ab-solutos. Algo de esto escribí en La utopía (in)deseable. La verdad absoluta no puede ser alcanzada, pero es la que da sentido a la diferencia entre lo más verdadero y lo menos verdadero, así como el bien absoluto da sentido a la diferencia entre lo más bueno y lo menos bueno.

Y pienso también que esta postura no debería ser tan sorprendente, porque esto mismo ocurre con el control de calidad en ingeniería. La norma de calidad remite a algo –la Calidad– que está más allá de la norma. Si establezco la siguiente norma: “antes de quedarse parado, el vehículo hará pum-pum y eyectará al conductor, pero no a los pasajeros”, ¿puedo decir que un sistema es bueno porque satisface perfectamente esta norma? Nada de eso, más bien diré: ¿quién es el mendrugo que ha parido esta estúpida norma? Pero, ¿cómo sé que la norma es estúpida? ¡Si es una norma bien especificada, incluso coherente con el resto de normas! ¡Y con el sello de autoridad del legislador! Si, a pesar de todo, puedo decir que la norma de calidad es estúpida, es porque remite a algo que está más allá de sí misma, y que de alguna manera puedo conocer: la Calidad. Exactamente igual que el Bien moral. Porque la Calidad no es sino una forma de Bien.

Moralidad algorítmica

Otro autor, José Sols, escribe acerca de los sistemas computacionales supuestamente programados conforme a principios éticos [2]:

El hecho de que decisiones muy importantes acerca de la vida humana queden en manos de sistema técnicos amorales es algo altamente preocupante.

A lo cual yo le respondí, en la correspondencia que mantuvimos hace unos meses: en realidad, no es que sean sistemas amorales, sino que implementan una moralidad consistente en aplicar reglas generales a casos particulares (es decir, una moralidad algorítmica); aplican la moralidad que les ha sido programada, ciertamente de forma que no será bien predecible por los programadores; y por eso es, entre otras cosas, tan preocupante. Pero también es preocupante, incluso más, la consideración de la moral como mera aplicación mecánica, deductiva, de reglas universales.

Más adelante escribe Sols en su artículo:

Sin embargo, la característica de la esclavitud es la total falta de libertad, mientras que lo propio de la ética es reflexionar acerca del adecuado ejercicio de la libertad. Por ello, una ética de la robótica, esto es, una «ética de esclavos», sería un oxímoron. ¿Cómo va a tener ética un sujeto que carece de libertad?

Me pareció una observación interesante, con la que estoy de acuerdo. Pienso que, para muchos de los que trabajan en robótica, la ética de los mismos seres humanos no es el “adecuado ejercicio de la libertad”, sino el “hacer lo correcto y evitar lo incorrecto” (que sea o no de modo libre es secundario). Es una ética impersonal, y por eso no les choca que se pueda hablar de la ética de los robots: cómo programarlos para que hagan “lo correcto”.

De hecho, en mi opinión, hay una particular corrupción de la educación moral que muchos hemos recibido, que cae en este mismo defecto: mera conformidad con la norma. Como si tuviéramos que pasar un control de calidad.

Mi interés en todo esto es que la reflexión que nos vemos forzados a realizar frente a la inteligencia artificial, y el poder de actuación que le estamos otorgando, nos obliga a repensar las cuestiones éticas. No me preocupa tanto la humanización del robot, como la robotización del humano: la reducción de la ética robótica (¡y humana!) al cumplimiento de un conjunto de “reglas para ser bueno”.

Si la inteligencia artificial general (o fuerte) llegara a ser una realidad (cosa que no creo) la solución para su comportamiento moral no estará en la ética programada, del mismo modo que la solución para las personas humanas no es la programación ética de sus conciencias.

REFERENCIAS

[1] Bertram F. Malle, Matthias Scheutz (2019). Learning How to Behave. In: Bendel, O. (eds) Handbuch Maschinenethik. Springer Reference Geisteswissenschaften. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-17484-2_17-1

[2] José Sols Lucia (2021). Ética de la inteligencia artificial: el caso de los soldados robot. Volumen 4 de Línea de pensamiento ético. ASOLUTION.

Deja un comentario