Respuestas a los estudiantes de FI-UCM

El pasado 23 de septiembre di una charla dentro del Ciclo de Conferencias sobre Ética, Legislación y Profesión en la Facultad de Informática de la Universidad Complutense de Madrid: ¿Sueñan los robots con ser buenas personas? La charla es una nueva versión de la que ya di en abril en Valladolid y en Pamplona (de esta última hay video disponible en YouTube). En este caso el público estaba formado mayoritariamente por estudiantes (unos 200, creo).

Los profesores organizadores del evento (Sara y Marcos) me enviaron posteriormente algunas preguntas que los estudiantes habían formulado en el foro del ciclo. Aquí trato de darles respuesta.

Gracias a esos estudiantes por su interés y sus inteligentes preguntas.


Yo, Robot (Alex Proyas, 2004)


1. ¿Afectaría de forma negativa a la sociedad, que los robots puedan razonar como nosotros? Ya que ocuparían muchos puestos de trabajo, y cada vez más se trataría con robots en vez de con personas, viéndose devaluado el contacto humano.

En esta pregunta encuentro una contradicción. Si “pueden razonar como nosotros”, entonces son personas como nosotros, luego no tiene sentido decir que “se trataría con robots en vez de con personas”. La pregunta es por tanto equivalente a: “¿Afectaría de forma negativa a la sociedad que los de tal [país / raza / planeta] ocuparan puestos de trabajo?”

Claro, que esto es una pura hipótesis de ciencia ficción. El razonamiento humano no puede reducirse a computación algorítmica, luego los robots, tal como los concebimos, diseñamos y fabricamos, no pueden razonar como nosotros. Para que los robots lleguen a pensar como nosotros tienen que dejar de ser robots y convertirse en personas.


2. ¿Es probable que el intentar aplicar la ética en todas las situaciones posibles que se puedan dar en el uso de las maquinarias frene el desarrollo de las mismas, al ser un objetivo inalcanzable?

La ética no es el freno de la tecnología, sino el motor que ésta necesita. Ese supuesto “desarrollo” frenado es en realidad un avance en la dirección correcta.


3. Muchas máquinas aprender mediante prueba – error. Sin embargo, esto puede llevar a aprendizajes que disten mucho del objetivo inicial de la máquina y estos datos quedan guardados. ¿Quién garantiza que en caso de descubrirse una vulnerabilidad en cualquier sistema esta no se va a aprovechar?

¿Quién lo garantiza? Los diseñadores, los fabricantes, los usuarios del sistema. Claro, lo garantizan si quieren garantizarlo, si ellos mismos son conscientes de su responsabilidad ética. Si no quieren, habrá que hacerlo desde fuera. Pero está claro que el peligro está tanto o más en los dueños como en las propias máquinas.


4. Si aun programando a una máquina, para que aprendiera todos los posibles casos éticos, ¿no cree que al no saber diferenciar en las situaciones entre lo bueno y lo malo seguiría tomando lo “aprendido” como órdenes? ¿No cree que para que “aprenda” sobre ética necesitaría un especie de conciencia artificial para poder identificar por si solo cómo actuar desde lo aprendido?

Bueno, creo que esto coincide sustancialmente con mi propia forma de pensar. Aprender verdaderamente sobre ética requiere tener conciencia para poder reconocer por sí mismo lo bueno y lo malo, y no solo actuar en respuesta a condicionamientos o programas externos.


5. Añado otra pregunta más siguiendo este hilo:

La pregunta va en relación al aprendizaje por imitación y en concreto al tema de “Adaptar la decisión ética al máximo común denominador”.

Se ha hablado de qué pasaría si en una región concreta se tienen unos valores éticos determinados y las personas en masa migran a otra región, exportando también esos valores éticos y aplicándolos a los algoritmos. En concreto se ha puesto el ejemplo de un coche de una marca determinada que conduzca en New York de una forma determinada por el algoritmo “adiestrado” con los valores éticos de los conductores de Roma.

Hoy en día la tecnología permite procesar una gran cantidad de información, masiva se podría decir, en pocas unidades de tiempo, pero:

– aparte de los valores éticos regionales, ¿se tendrá en cuenta la temporalidad de los mismos (inter-generacional por ejemplo)? Es decir, lo que ahora podríamos asumir como ética o moralmente justo, en poco tiempo podría ser considerado lo contrario. Estamos en un mundo cambiante y la evolución de la sociedad desde la revolución industrial ha experimentado grandes cambios en un relativamente corto espacio de tiempo, y ahora quizá lo hace a una mayor velocidad. Además hay que tener en cuenta lo que se ha hablado en relación con el espíritu crítico y la desobediencia así entendida, que hace que las generaciones jóvenes se planteen el estatus establecido.

– y si se tienen en cuenta ¿con qué frecuencia sería ético actualizarlos? ¿la tecnología estará prepara para asumir este constante y diverso proceso de auto-evaluación ética?

Todo este planteamiento no hace otra cosa que reafirmarme en la certeza de que cualquier especie de “agregado” de convicciones éticas particulares no es lo que entendemos por ética, y llamar ética a ese agregado no hace más que confundir las ideas. El agregado puede ser útil en un cierto tiempo o lugar, pero la reflexión ética siempre tiene que ir más allá.


6. Si, en el caso de que el aprendizaje por imitación las decisiones que puede tomar la IA obtienen el mismo porcentaje de aceptación, o entre ellas no hay una diferencia significativa. ¿Qué decisión tomaría la IA y en que se basaría?

Si el Asno de Buridán no puede decidirse porque, por lo que él sabe, las dos decisiones son exactamente equivalentes, entonces da lo mismo que decisión tome. Que lance una moneda.


7. Mi pregunta va enfocada al Test Ético de Turing. Suponiendo que la máquina tuviera las capacidades éticas, de elección y fuera considerada libre con derechos y obligaciones como un ser humano, ¿será la máquina la responsable de sus decisiones y por tanto sometida a las mismas leyes? ¿Podría ir a prisión?

Si la máquina es verdaderamente libre, entonces es verdaderamente responsable. Lo uno va unido a lo otro, con todas las consecuencias.


8. Si tuviésemos un robot programado con las tres leyes de la robótica elaboradas por Asimov y le planteamos la situación del dilema del tranvía, al tener que hacer daño a un humano entraría en conflicto la primera ley. ¿Sería correcto programar a dicho robot para que actuase por un bien mayor? Es decir, ¿debería desviar el tranvía y matar a una persona para salvar al resto?

Lo que estás haciendo es someterme a mí al dilema del tranvía…


9. Cuando se expuso el ejemplo de las notas de los profesores, se tenía en cuenta la opinión de diferentes profesores en función de su opinión personal, pero no se incluyó la opinión de otros afectados por esta decisión cómo, en este ejemplo, algún alumno. Mi pregunta es: ¿Es bueno que una máquina que va a actuar en una situación en la que hay personas con diferentes papeles (profesor, estudiante,…) enseñarle la opinión general de cada grupo de personas para que tenga una visión más general o sería demasiado lenta para actuar porque no sabría qué opinión es “más importante” que otra? Gracias por su tiempo.

Mira la respuesta que he dado antes (5). La ética como agregado de opiniones particulares puede ser útil en un cierto tiempo o lugar, pero la reflexión ética siempre tiene que ir más allá. Parece sensato tener en cuenta opiniones de diversa procedencia pero, salvo que nos conformemos con un mero promedio de la opinión general, habrá que filtrarlas y jerarquizarlas de alguna manera, habrá que introducir “sesgos” para preservar la justicia (por paradójico que esto pueda sonar). La cuestión de la lentitud me parece totalmente secundaria.


10. Si en un futuro se consigue implantar la ética en las máquinas a un nivel profundo, ¿qué ocurriría si la decisión más adecuada según la “mente de la máquina” se contrapone a la decisión que tomaría un ser humano? ¿Se acogería la máquina a la primera ley formulada por Asimov aunque esta contradijera su propio pensamiento ético?

Me parece que la respuesta la puedes dar tú misma o tú mismo. Si la Primera Ley es parte de su “programación ética”, se acogerá a ella, naturalmente. Pero si, como pareces indicar, está programada de otra forma, no se acogerá a ella, no tiene por qué hacerlo. Por otra parte, es casi seguro que habrá algún ser humano que habría tomado una decisión diferente a la de la máquina, como de hecho ya ocurre entre nosotros. ¿Qué hacemos en esos casos? Ahí lo tienes…


11. ¿Existe algún tipo de comité o institución que se ocupe de establecer la “ética” y la “moral” que una máquina debe seguir? Me explico; al igual que tenemos la Organización de las Naciones Unidas (ONU) que establece los derechos humanos y velan por todas las personas, creo que debería existir, si no la hay, una asociación similar, sobre todo si echamos la vista al frente y vemos lo que se nos viene encima con temas como el que se ha tratado hoy.

En primer lugar, una precisión: la Declaración Universal de los Derechos Humanos no establece esos derechos, sino que los reconoce, como algo previo a la misma Declaración y a la ONU. Estas son las palabras iniciales: “Considerando que la libertad, la justicia y la paz en el mundo tienen por base el reconocimiento de la dignidad intrínseca y de los derechos iguales e inalienables de todos los miembros de la familia humana”.

De hecho ya existen diversos comités públicos y privados que se esfuerzan por lograr una visión compartida del impacto ético de la IA. Por ejemplo, en Europa se acaban de publicar las Ethics guidelines for trustworthy AI. En un ámbito más cercano, hace un par de años se publicó la Barcelona Declaration for the proper development and usage of Artificial Intelligence in Europe, también muy interesante.

Trabajar juntos, desde distintos presupuestos culturales, tiene la ventaja de que “cuatro ojos ven mejor que dos”, y por eso estos comités pueden hacer mucho bien. Desde mi punto de vista, estos comités solo pueden aportar luz si parten del convencimiento de que los valores éticos están por encima de ellos; que el comité no los establece, sino que los reconoce.


Reflexión final

Observo que las preocupaciones se centran en las regulaciones (qué hay que hacer para evitar que… qué organismo o institución podemos constituir para…) y en lo que podemos llamar la “ética de la tercera persona” (ellos –seres humanos o máquinas–, ¿hacen bien si…?).

Sin embargo, desde mi punto de vista el centro de la ética es la primera persona: ¿Qué puedo y debo hacer Yo para mejorar la situación? ¿Cómo debo diseñar, Yo, una máquina que implemente inteligencia artificial, que maneje grandes cantidades de datos, que descubra patrones de comportamiento en mis conciudadanos? ¿Cómo debo comportarme, Yo, cuando mi empresa está involucrada en actividades que emplean técnicas de inteligencia artificial?

Y aquí es donde veo la principal lección que podemos aprender al reflexionar sobre si es posible enseñar ética a las máquinas: mi propio comportamiento ético no se puede reducir a seguir un código, a obedecer unas reglas. Si quiero llevar una vida ética, lo primero es estar abierto a lo que me diga mi realidad concreta, a reconocer los valores que están en juego en mi actividad, y comprometerme con la búsqueda personal del bien.

5 pensamientos en “Respuestas a los estudiantes de FI-UCM

  1. Gonzalo

    Ando tan mal de tiempo que dejé a medias (como si fuera una serie de Netflix…) tu charla en Pamplona en youtube. Ahora veo esto y no lo puedo leer ni en diagonal…

    Pero me interesa muchísimo, me encantaría iniciar un track de formación / reflexión sobre estos temas y otros. Para mí la ética, el lenguaje… son imprescindibles para manejarnos en una sociedad y en unos trabajos (profesor… consultor…) como los actuales.

    Así que de momento, primero MIL GRACIAS por acordarte de mí y, segundo SIGUE ENVIÁNDOME todo lo que consideres, cuenta siempre conmigo en todos estos temas. En realidad me interesan más que los algoritmos genéticos, pero bueno…. La verdad es que lo de la tesis se come el poco tiempo libre que me queda ahora, pero en cuanto me libere retomaré éste y otros temas…

    Jesús

    Me gusta

    • Sí, esto ya lo habíamos comentado: demostráis brillantemente que no es posible fabricar una superinteligencia computacional con una estrategia de control que garantice que ella misma no será dañina (o sea, que cumpla en todo caso la Primera Ley). Por cierto, ¿tenéis alguna noticia sobre el proceso de revisión del artículo?

      Me gusta

  2. Hola Gonzalo,
    Lo primero es darte las gracias por haber venido a dar la conferencia y despertar en muchos de los asistentes la curiosidad en el tema y seguir buscando noticias.

    Lo segundo es que en la conferencia me quede con ganas de preguntarte una cosa, ya que no iba tan enfocado a la aplicación de la ética sino a conocer tu opinión sobre el tema.
    Durante la entrevista pusiste diapositivas con alguna foto de ciertas películas, entre ellas Terminator y yo robot.
    Simplemente las catalogaste de Ciencia Ficción pero yo me pregunto si en el futuro, muy lejano quizás, puede pasar algo así.
    Por ejemplo con la historia de terminator que incluye alguna de las cosas que nos contaste, crean una inteligencia artificial llamada Skynet, que va aprendiendo, llega a sustituir las decisiones humanas y cuando quieren desconectarla temiendo por su existencia inicia una guerra nuclear.

    Está claro que por lo que nos contaste tu, las maquinas no puede pensar como nosotros porque las programamos con un objetivo y no pueden modificar su objetivo, recuerdo que pusiste el ejemplo de una IA jugando al ajedrez, que ella por su cuenta no puede ponerse a aprender otra cosa.
    Entonces a lo mejor algo como Skynet no puede suceder desde ese concepto, pero si llegamos a poner como objetivo a una maquina defender a los seres humanos no podría llegar a la conclusión como en yo, robot de defender al humano del propio humano u otras muchas variaciones como en el libro de Kass Morgan the 100 donde una inteligencia artificial observa que hay superpoblación y decide lanzar un ataque nuclear para eliminarla.

    Mi preguntas es esa, si de verdad no crees que un futuro si los países que tengan que implementar e implantar inteligencias artificiales tan avanzadas no son lo suficiente profesionales y cuidadosos al ponerles límites puede llegar a ocurrir un problema y lo que pensamos que es solo ciencia ficción se convierta en realidad.

    Me gusta

    • Hola José, muchas gracias por tu comentario. Aquí yo distinguiría varias cuestiones:

      ¿Puede surgir de nuevo la inteligencia en el mundo? Bueno, ya ha surgido al menos una vez, con nosotros, y todavía no sabemos explicar muy bien cómo. Luego no podemos descartar que vuelva a surgir, en plan Skynet. Yo no digo que sea imposible, sino que no puede ser propiamente fruto de un proceso de fabricación dirigido. La “rebelión contra el padre” es el tema recurrente de los robots en la ciencia ficción, y precisamente pone de manifiesto que la fabricación no puede explicar la rebelión.

      ¿Debemos temer a las máquinas que fabricamos? Centrémonos en la máquinas que implementan técnicas de inteligencia artificial, pero no son propiamente inteligentes. Me parecería insensato no ser precavido; no todo miedo es irracional, y la precaución nace del miedo. Las máquinas pueden hacer mucho daño: bien porque se descontrolan completamente (como una máquina de vapor que explota); bien porque producen efectos no deseados imprevistos; o bien porque están en manos de gente que las usa para su beneficio a costa del bien ajeno. Así que está claro: a la vez que diseñamos la máquina, hay que pensar en las formas de mitigar los riesgos de su mal funcionamiento o de su uso indebido.

      ¿Debemos temer a una inteligencia diferente de la nuestra? Esta es una pregunta más complicada, y en cierto modo ya la he respondido al principio. El diferente puede suponer una amenaza, pero también un beneficio. En el fondo depende no tanto de si es o no inteligente, sino de qué intenciones alberga. Todo lo que podemos temer de otros seres inteligentes lo podemos temer de nuestros hijos…

      Me parece que tu pregunta (el temor de que lo que pensamos que es solo ciencia ficción se convierta en realidad) se relaciona más bien con el segundo planteamiento, y específicamente la novedad que introduce la IA estaría en los efectos no deseados imprevistos. Está claro que hay que ser muy prudentes en el poder de acción que otorguemos a las máquinas, máxime cuando las hacemos capaces de actuar mecánicamente a partir de principios abstractos (como el principio de “control de la población”) cuyas consecuencias últimas no somos capaces de prever.

      Me gusta

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s