Ética para máquinas: un tema candente

Tras un periplo de varios años, como ocurre a menudo con las publicaciones académicas, en el número de marzo de 2023 de Science and Engineering Ethics se ha publicado nuestro artículo Machine Ethics: Do Androids Dream of Being Good People? [1]. Las principales ideas contenidas en el artículo las ensayé previamente en este blog, particularmente en La ética no es un juego de imitación (25/03/2020) y Tres leyes para gobernarlos a todos (10/05/2021), además de haber hablado del tema en varias conferencias, la última de ellas en la Semana de la Ciencia 2022: ¿Sueñan los androides con ser buenas personas? Ofrezco ahora algunas ideas adicionales contenidas en la introducción del artículo.

El desarrollo de la ética para máquinas

La ética de las máquinas, o ética computacional, es la parte de la filosofía moral que se ocupa de garantizar el comportamiento ético de las máquinas que utilizan inteligencia artificial. La reflexión sobre la ética de las máquinas comenzó el siglo pasado, principalmente en el contexto de la ciencia-ficción. Pero no sólo en ese contexto. Ya en 1987, Mitchell Waldrop abogaba en AI Magazine por el desarrollo de la teoría y la práctica de la ética de las máquinas, y pedía que pensáramos cuidadosa y explícitamente en los valores, supuestos y propósitos que encarnarían las máquinas inteligentes, tanto si sus programadores los habían previsto conscientemente como si no [2]. Incluso avanzó la idea de que el esfuerzo por dotar a los ordenadores de inteligencia conllevaría una comprensión más profunda de nosotros mismos, los seres humanos: reflexionar sobre qué es realmente la inteligencia y reexaminar nuestras concepciones del bien y del mal.

El nuevo milenio y el advenimiento de los agentes autónomos trajeron consigo la urgente necesidad de esta reflexión filosófica sobre las tecnologías de IA. En un taller organizado en 2004 por la Asociación para el Avance de la Inteligencia Artificial (AAAI) se presentó un trabajo preliminar sobre los fundamentos teóricos de la ética de las máquinas [3], basado principalmente en la ética utilitarista. Al año siguiente, se dedicó todo un taller de la AAAI a la ética de las máquinas, con contribuciones seminales que se recopilaron y publicaron unos años más tarde [4].

La primera década del milenio concluyó con una de las primeras obras exhaustivas sobre el tema, escrita por Wendell Wallach y Colin Allen [5]: Moral Machines: Teaching Robots Right from Wrong. Comienzan este libro con un marco para entender los problemas de la ética de las máquinas, estructurado a lo largo de dos dimensiones independientes: autonomía y sensibilidad a los valores. Dentro de este marco, pueden identificarse regiones de «moralidad operativa» básica y «agencia moral plena», con muchas gradaciones de «moralidad funcional» intermedias. Los autores tratan casi todos los temas relacionados con la ética de las máquinas, dejando muchas preguntas abiertas y sin respuesta, en un texto que se ha convertido en una referencia en este campo.

Sin embargo, a pesar del sugerente subtítulo, los autores no pretenden ofrecer un método para implementar algoritmos morales en una máquina computacional. Sugieren, eso sí, muy brevemente al final del libro, aprovechar lo aprendido y que «el proyecto de diseñar agentes morales autónomos retroalimente la comprensión que los seres humanos tienen de sí mismos como agentes morales, y de la naturaleza de la propia teoría ética».

La segunda década ha visto un extraordinario incremento en el número de publicaciones, tanto académicas como de divulgación [6], junto con el nacimiento de revistas especializadas e iniciativas públicas o privadas a favor de principios éticos en el diseño de sistemas de IA, tales como los Principios de IA de Asilomar y la Declaración de Barcelona para el correcto desarrollo y uso de la Inteligencia Artificial en Europa, ambas de 2017. Los gobiernos han dado por fin el paso de interesarse por el tema; véase, por ejemplo, la iniciativa del Parlamento Europeo para abordar el estatus legal de los robots y los sistemas de IA [7]. En general, los académicos y muchos gobiernos han cuestionado la idea de que la misma IA pueda considerarse propiamente responsable [8]. No obstante, incluso se ha propuesto una variante de la Prueba de Turing –la Prueba de Turing Ética– para determinar si una máquina de IA es capaz de tomar decisiones éticas [9]. Obviamente, esto depende en gran medida de los principios morales y el razonamiento de los propios jueces de la prueba.

Computación ética

Cuando intentamos reducir la ética a computaciones, asumimos implícitamente el paradigma –con profundas raíces en la filosofía moderna, y particularmente en René Descartes y David Hume– de que la inteligencia, o la razón, es esencialmente un instrumento universal para resolver problemas. Pero esta misma noción de ética «computacional» deja su racionalidad en una difícil posición, ya que la única parte racional de la ética sería la reflexión sobre los medios adecuados para alcanzar determinados fines (por tanto, razón técnica o instrumental para resolver problemas); no se abordaría la racionalidad de los fines mismos (los valores, los problemas que merece la pena resolver). Para ilustrar esta tesis, examinamos en el artículo referido algunos enfoques populares del comportamiento ético de los sistemas informáticos que ponen de manifiesto las limitaciones de la noción de ética como computación y, por tanto, de todo el planteamiento de la ética de las máquinas.

Afortunadamente, algunos filósofos importantes del siglo XX (Martin Heidegger, Ludwig Wittgenstein y muchos otros siguiendo sus respectivos caminos de pensamiento) han cuestionado justamente la idea de que la razón humana sea esencialmente una especie de «inteligencia computacional», y han demostrado que la razón no consiste (únicamente) en seguir reglas, como bien explica Hubert Dreyfus en su famoso ensayo What Computers Can’t Do: The Limits of Artificial IntelligenceLo que los ordenadores no pueden hacer: Los límites de la inteligencia artificial [10].

A partir de aquí, nuestro argumento es que la racionalidad debe entenderse como algo más que computación, y que en particular la racionalidad de los valores está más allá de lo que se puede comprender con números. Tal comprensión es un paso necesario para recuperar una racionalidad renovada de la ética, urgentemente necesaria en nuestra sociedad altamente tecnificada.

Tres versiones rivales de la ética

Históricamente, ha habido tres principales versiones rivales de sistemas o tradiciones éticas en la filosofía moral occidental: la ética de la virtud (con orígenes en Aristóteles y otros filósofos de la antigua Grecia), la ética deontológica (cuyo principal exponente es Immanuel Kant) y la ética utilitarista (desarrollada principalmente por John Stuart Mill). Aunque la Iniciativa Global sobre Ética de los Sistemas Inteligentes Autónomos del IEEE ha recomendado con insistencia explorar todas ellas, junto con otros sistemas éticos basados en diferentes culturas (budismo, confucianismo, tradiciones ubuntu africanas y sintoísmo japonés), lo cierto es que los enfoques actuales de la ética de las máquinas se han inspirado principalmente en la deontología y el utilitarismo [11].


Basado en una idea de Damian Gordon, Yannis Stavrakakis, Gordana Dodig-Crnkovic:
Ethics4EU Project, Teaching Ethics to Future Computing Professionals

Allen, Smit y Wallach [12] propusieron en 2005 un marco para comprender las estrategias de diseño de agentes morales artificiales: enfoques descendentes (top-down) y ascendentes (bottom-up) de la ética informática, que son básicamente los mismos que nosotros hemos denominado ética programada y ética aprendida. También puede verse fácilmente la estrecha relación de estos dos enfoques con las éticas deontológica y utilitarista, respectivamente. La idea que subyace a los enfoques descendentes es que los principios o teorías morales pueden utilizarse como reglas para la selección de acciones éticamente apropiadas. Los principales problemas que se plantean aquí son: qué conjunto de reglas seleccionar (sean los Diez Mandamientos, las Leyes de la Robótica de Asimov, etc.) y cómo resolver los posibles conflictos entre reglas. Por otra parte, los enfoques ascendentes no imponen (supuestamente) una teoría moral específica, sino que tratan de proporcionar entornos en los que se seleccione o recompense el comportamiento adecuado, con mecanismos que podrían asemejarse al desarrollo infantil o a la evolución biológica. En nuestra opinión, sin embargo, una teoría moral siempre está al menos implícita en la forma en que se juzga y recompensa el comportamiento «apropiado».

En cambio, la ética de la virtud, que es también más afín a otras tradiciones no occidentales, ha sido ignorada en el ámbito de la ética de las máquinas. Esto no es accidental, ya que la ética de la virtud se resiste a ser formalizada en un conjunto de reglas o cálculos, a diferencia de los dos sistemas éticos más modernos (deontología y utilitarismo) que, en cierto sentido, se asemejan respectivamente a una especie de programa o algoritmo y a un cálculo de coste-beneficio. En este sentido, la ética de la virtud emerge como el mejor enfoque para comprender la ética humana.

De hecho, pensamos que el análisis de las limitaciones de la ética de las máquinas presentado en este trabajo apunta indirectamente al agotamiento de la deontología y el utilitarismo denunciado por Alasdair MacIntyre [13], según el cual es la disfunción del discurso moral moderno en las sociedades occidentales lo que exige la rehabilitación de una renovada racionalidad en la ética. Estamos asistiendo en las últimas décadas a un resurgimiento de la ética de la virtud en general, y entre los tecnólogos en particular [14], que ha propiciado un cambio de paradigma que escapa a las limitaciones de los otros dos enfoques al centrarse en ser buenas personas, en lugar de limitarse a realizar la acción correcta [15]. Esto, sin duda, sitúa a la ética mucho más allá de lo alcanzable por la programación y la informática.

Referencias

[1] Gonzalo Génova, Valentín Moreno, M. Rosario González. Machine Ethics: Do Androids Dream of Being Good People? Science and Engineering Ethics 29:10 (2023), online 23 March 2023 (open access).

[2] Waldrop, M.M. (1987). A Question of Responsibility. AI Magazine 8(1): 28-39.

[3] Anderson, M., Anderson, S.L., & Armen, C. (2004). Towards Machine Ethics. In Proceedings of the AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press.

[4] Anderson, M., Anderson, S.L., eds. (2011). Machine Ethics. Cambridge University Press.

[5] Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. New York: Oxford University Press.

[6] Coeckelbergh, M. (2020). AI Ethics. Cambridge: MIT Press.

[7] Nevejans, N. (2016). European Civil Law Rules in Robotics. European Parliament, Directorate-General for Internal Policies, Policy Department C: Citizens’ Rights and Constitutional Affairs.

[8] Bryson, J.J., Diamantis, M., Grant, T. (2017). Of, For, and By the People: The Legal Lacuna of Synthetic Persons. Artificial Intelligence and Law 25(3): 273–291.

[9] Winfield, A.F., Michael, K., Pitt, J., Evers, V. (2019). Scanning the Issue. Proceedings of the IEEE 107 (3): 509–517, Special Issue on Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems.

[10] Dreyfus, H. (1972). What Computers Can’t Do: The Limits of Artificial Intelligence. Harper & Row. El ensayo fue retitulado en 1992, dos décadas después de la primera edición, como What Computers Still Can’t Do. A Critique of Artificial Reason.

[11] Segun, S.T. (2021). Critically engaging the ethics of AI for a global audience. Ethics and Information Technology, 23: 99-105.

[12] Allen, C., Smit, I., Wallach, W. (2005). Artificial morality: Top-down, bottom-up, and hybrid approaches. Ethics and information technology, 7(3):149–155.

[13] MacIntyre, A. (1981). After Virtue: A Study in Moral Theory (2nd ed. 1984, 3rd ed. 2007). Notre Dame, Indiana: University of Notre Dame Press.

[14] Génova, G., & González, M.R. (2016). Teaching Ethics to Engineers: A Socratic Experience. Science and Engineering Ethics, 22(2):567–580.

[15] Schmidt, J.A. (2014). Changing the Paradigm for Engineering Ethics. Science and Engineering Ethics, 20(4): 985-1010.

Deja un comentario