Seminario Internacional de Ética e Inteligencia Artificial

Universidade de Caxias do Sul, Brasil
Seminario Internacional de Ética e Inteligencia Artificial: Escenario y Perspectivas

Conferencia invitada (en español)
Una lección aprendida de la IA: la ética no es un juego de imitación

Lunes, 21 de noviembre de 2022 a las 18:00-20:00 (España), 14:00-16:00 (Brasil)

PROGRAMA COMPLETO DEL EVENTO (21-22-23 de noviembre)
Información e inscripciones
Cada una de las tres sesiones consta de dos intervenciones de 30 minutos a cargo de los ponentes, el resto del tiempo será dedicado al coloquio con los asistentes.

Para recibir certificado de asistencia es necesario inscribirse y asistir al menos a un 75% del seminario. El seguimiento por YouTube no requiere inscripción.

Día 21: Gonzalo Génova Fuster, Antonio Luis Terrones Rodríguez
Transmisión en directo YouTube

Día 22: Itamar Soares Veiga, Joel Luís Carbonera
Transmisión en directo YouTube

Día 23: Carine Geltrudes Webber, Liliana Acosta Arias
Transmisión en directo YouTube


Entrada estrechamente relacionada: La ética no es un juego de imitación.

11 comentarios en “Seminario Internacional de Ética e Inteligencia Artificial

  1. Buenas Gonzalo,

    Ante todo enhorabuena por el contenido del seminario interesante como siempre.

    ¿Te parecería bien si desde aquí planteo algunas observaciones a modo de debate sobre el mismo?

    Un saludo.

    Me gusta

  2. Buenas,

    Aun a costa de hacer esto un poco largo voy a intentar plasmar todas las ideas que se me han ido ocurriendo mientras veía tu intervención.

    Por un lado, y una vez más, estamos ante un problema que ni siquiera está resuelto entre humanos. En un momento de la presentación dices que se requeriría discernir entre el bien y el mal para resolver este tipo de dilemas morales. Casi nada.

    Como en cualquier problema moral intervienen valores, criterios, perspectivas…de hecho el planteamiento de los dilemas ya lleva implícitos ciertos valores, que ni se mencionan, supongo que por ser demasiado obvios, pero a los que también se les podría sacar punta: está implícito que la vida de los humanos está por encima del mobiliario urbano, pero…¿qué pasaría si hubiera que elegir entre que el coche mate a alguien o que destruya una infraestructura de elevadísimo valor económico clave para el bienestar de millones de personas?

    También puede tratarse de un problema irresoluble, según el planteamiento. No me extenderé en esto, solo apunto a la posibilidad.

    Para mi a clave está en los criterios que elijamos para «resolver» los dilemas. El problema es que estos criterios pueden ser múltiples, casi infinitos, y a priori igualmente válidos. Se me ocurren:

    – Salvar (cuantitativamente, sin más) el mayor número de vidas posibles.
    – Salvar (cualitativamente) la mayor cantidad de vidas posibles. Me explico. La «calidad» de la persona cuenta, sea lo que sea lo que eso signifique. Podríamos convenir que la vida de un asesino en serie «vale» menos que la de alguien que aporta bienestar a la comunidad, por ejemplo, un misionero en Africa. Aunque puede haber un alto consenso en pensar así (yo de hecho así lo pienso) esto ya presupone un sistema de valores mediante el cual llegamos a la conclusión de que el asesino es peor persona que el misionero, en todas las circunstancias. Lleva también implícito que el asesino «elige» ser asesino, y el misionero hace lo propio. Presupone libre albedrío, en definitiva.
    – Salvar la mayor cantidad de años esperados de vida. El niño cuenta más que el anciano.
    – Salvar la mayor «experiencia de vida» posible. El anciano cuenta más que el niño.
    – Salvar al más vulnerable. Aquí sería difícil de discernir si es más vulnerable un niño que un anciano.

    Todo esto claro, suponiendo que tenemos la correspondiente información de las personas candidatas a ser atropelladas en el dilema.

    Es decir, el problema se «reduciría» a elegir unos valores y unos criterios «correctos», ya que al menos parece que unos criterios son peores que otros. Por ejempo, convendríamos que el criterio de «salvar a las personas con menos pelo» sería un criterio incorrecto. Pero cabe la dificultad de elegir entre varios criterios que todos ellos parecen ser correctos, o al menos tener algo de correcto.

    En definitiva, lo mismo no es tan malo elegir la solución de qué haría la mayoría. Al fin y al cabo…¿un humano se haría estos planteamientos ante una situación real de este tipo? ¿El humano haría siempre «lo correcto», sea lo que sea lo que eso significa, frente a la máquina que simplemente actuaría según un algoritmo previamete entrenado basándose en las decisiones humanas?

    A las inteligencias artificiales que crean arte (tan populares hoy en día) se les ha entrenado con arte humano para crear arte artificial que sea apreciado por sus cualidades por los humanos. Podemos discutir los criterios que se han elegido para esto (si es que los hay, o tal vez simplemente se les ha entrenado con toneladas de arte humano). Pero el hecho es que los resultados que producen parecen arte humano. Nótese que aquí aplico «parecer» en sentido fuerte, en el sentido de que es un arte a priori indistinguible del que producimos los seres humanos.

    Un saludo.

    Me gusta

    • Antonio, disculpa en retraso en contestarte.

      Toda la ponencia, y el artículo en el que está basada, apunta a que la forma de resolver estos problemas no puede ser aquella a la que estamos más acostumbrados: la matematización, la identificación de variables medibles, y la formulación de reglas para calcular el resultado. Esto es la base de la racionalidad científica y tecnológica, pero no puede ser la base de la racionalidad ética. Hay que re-aprender a pensar de otra manera. Los problemas éticos no se resuelven como problemas de geometría.

      Por ejemplo, tú enumeras una serie de criterios para resolver el problema, básicamente número y calidad de personas. Y tú mismo te das cuenta de que no puede ser cuestión solo de definir bien esos criterios, porque el criterio de «salvar a las personas con menos pelo» sería un criterio incorrecto.

      ¿Por qué sería incorrecto, si está bien definido? ¿En base a qué eres capaz de distinguir criterios a priori correctos y a priori incorrectos? La problemática de la IA nos fuerza a plantearnos estas preguntas, a pensar «de otra manera», y eso es lo que considero una «buena noticia». La IA nos invita a repensar la ética. A darnos cuenta de que, como digo en la última transparencia, la ética no va de seguir un código, sino de escribirlo (o sea, de ser capaz de captar los valores y su importancia relativa).

      Yo no digo que esté mal elegir la solución de la mayoría. Lo que digo es que no nos podemos quedar ahí, que tenemos que pensar más, que tenemos que descubrir otra forma de pensar.

      Me gusta

  3. No acabo de entender la reticencia a dar la bienvenida a la inteligencia artificial fuerte. No quiero abundar en las razones que se invocan para ese rechazo, simplemente señalo un punto que me parece contradictorio. Hemos invertido mucho tiempo, energía y sumas ingentes de dinero para desarrollar la inteligencia artificial con magníficos resultados. A la vista de estos hallazgos no es necesario pensar de otra manera, ya se encargan las máquinas pensantes de hacerlo. Entiendo que el principal objetivo de la investigación de los sistemas inteligentes es que nos faciliten la tarea de pensar, esto quiere decir que estos sistemas pueden darnos respuestas inteligentes a problemas éticos. Pero si cerramos la puerta a la IA fuerte la interacción con los sistemas inteligentes se clausura.

    La problematicidad de la IA depende en parte de nuestra manera de abordar los sistemas informáticos sensibles, si en vez de considerarlos aliados los vemos como una amenaza acabamos atrapados en la perplejidad. ¿Por qué se niega la posibilidad de pensar de otra manera en colaboración con las máquinas inteligentes? ¿Por qué se impide la investigación y desarrollo de sistemas artificiales capaces de tener sentimientos y emociones?

    Me gusta

    • Trenchtown, yo no tengo ninguna reticenca a dar la bienvenida a la IA fuerte.

      En su artículo de 1950, Computing machinery and intelligence, Turing señala nueve objeciones a que una máquina pueda verdaderamente pensar. La segunda es la que él llama «heads in the sand», enterrar la cabeza en la arena: las consecuencias de que las máquinas puedan pensar serían terribles, de modo que no puede ser verdad. De las nueve objeciones, es la que se desmonta más fácilmente.

      Pero no es así como yo pienso. Claro que hay motivos para tener miedo, sobre todo miedo a los poderosos que usen la IA (débil) para someternos mejor. Pero si llega a surgir en la Tierra una verdadera inteligencia no humana, las consecuencias podrán ser terribles o magníficas. Más o menos como cuando una civilización humana entra en contacto con otra civilización también humana.

      Mis objeciones a la posibilidad de IA no se deben a reticencia o miedo. Son argumentos de peso, que se pueden resumir en: una máquina computacional no puede ser verdaderamente inteligente y libre (porque obedece a objetivos que le son impuestos desde fuera, es decir, no puede autoproponerse objetivos); si alguna vez engendramos una inteligencia no humana, no será computacional.

      Estos argumentos se basan en una concepción de la humanidad que puede que no compartas: rechazo al materialismo, al dualismo, al mecanicismo y al determinismo.

      Los algoritmos pueden dar respuestas inteligentes a problemas éticos, siempre que hayan sido programados conforme a principios éticos. Lo que no puede hacer un algoritmo es entender la ética por sí mismo: la ética es una forma de racionalidad no computacional.

      No está en mi ánimo cerrar la puerta a ninguna investigación. Sí está en mi ánimo aprovechar lo que aprendemos de la IA para comprendernos mejor a nosotros mismos.

      Me gusta

  4. Buenas a todos,

    Es decir, que el problema moral que se propone no está resuelto ni entre los humanos, ya que «tenemos que descubrir otra forma de pensar», que entiendo no sabemos la que es. Es decir, estamos como al principio.

    Y mientras, los algoritmos (computacionales) crean música, pintura, poesía y entablan conversaciones indistinguibles ya de las de los seres humanos, pero claro todo esto no lo hacen «de verdad». Porque no es lo mismo parecer que ser, decías más arriba.

    Yo de verdad os invito a probar (hacedlo rápido porque entiendo que no siempre va a estar abierto gratuitamente) a preguntarle algo al recién estrenado chatGPT de Open AI, que está basado en el algoritmo GPT-3, en su última actualización:

    chat.openai.com/chat

    Yo no digo que no deba discutirse filosóficamente sobre si una máquina computacional tiene consciencia o no, o si piensa de verdad o de mentira, pero creedme, y sin duda lo sabéis, esto va a revolucionar el mundo, y lo va a hacer ya.

    Un saludo.

    Me gusta

    • Antonio, esa «otra forma de pensar» requiere, entre otras cosas, reconocer precisamente que los problemas morales no se pueden resolver de una vez para siempre. Y eso no es porque no haya una solución racional, sino porque requiere ejercitar una racionalidad de un tipo diferente a la que estamos más acostumbrados. Permíteme que cite unas palabras de E.F. Schumacher en El mayor recurso: la educación que pienso que expresan muy bien esta idea:

      G. N. M. Tyrell emplea los términos «divergente» y «convergente» para distinguir los problemas que no pueden ser resueltos por el razonamiento lógico en contraposición con aquellos que pueden serlo. La vida sigue adelante por los problemas divergentes que tienen que ser «vividos» y se solucionan sólo con la muerte. Los problemas convergentes, por otro lado, son los inventos más útiles del hombre; como tales no existen en la realidad, sino que se crean en un proceso de abstracción. Cuando se resuelven la solución se puede escribir y transmitir a otros que la podrán aplicar sin necesidad de reproducir el esfuerzo mental necesario para descubrirla. Si éste fuera el caso de las relaciones humanas (de la vida familiar, de la economía, la política, la educación, etc.), bueno, no sé cómo terminar la frase. No cabría ninguna relación humana, todas serían reacciones mecánicas y la vida sería una muerte viviente. Los problemas divergentes compelen al hombre a esforzarse hasta un nivel por encima de sí mismo, demandan fuerzas que provienen de un nivel más alto y, al mismo tiempo, hacen posible su existencia trayendo amor, belleza, bondad y verdad dentro de nuestras vidas. Es sólo con la ayuda de estas fuerzas más elevadas como los contrarios pueden ser reconciliados en una situación vital.

      Y no es que no sepamos cuál es esa otra forma de pensar. Lo sabemos al menos desde hace 2500 años, los griegos la llamaron «razón práctica» o frónesis. Digo que tenemos que «descubrirla» porque la mentalidad occidental está absolutamente dominada por la razón teórica y la razón instrumental, y por eso nos cuesta tanto razonar sobre los valores morales de forma no matematizante. Nos falta entrenamiento. Tampoco quiero decir que los griegos ya lo dijeron todo. En particular, pienso que la noción de libertad que debemos al cristianismo y a la modernidad no estaba suficientemente comprendida en la filosofía griega.

      ===

      Yo he interactuado con DALL·E de OpenAI, tengo cuenta y he generado unas cuantas imágenes. Y sí, es impresionante, como cualquier otro artefacto que hayamos construido los seres humanos para resolver problemas. Y no me cabe ninguna duda de que está revolucionando el mundo. Pero es que la clave de la inteligencia humana no es la capacidad de resolver problemas, sino la capacidad de elegir los problemas que vale la pena resolver. Y esto está más allá de lo que puede hacer una máquina, pero no porque presente dificultades tecnológicas inmensas, sino porque es contradictorio con el concepto de máquina. O sea, otra vez lo que he dicho más arriba: si alguna vez engendramos una inteligencia no humana que sea capaz de elegir los problemas que vale la pena resolver, entonces no será computacional.

      Te recomiendo también este artículo de Carissa Véliz: Por qué el algoritmo de Google no es una persona.

      Me gusta

    • Ayer se ha publicado esta entrevista a Oriol Vinyals.

      El entrevistador titula Oriol Vinyals: “Nuestra generación verá una inteligencia artificial que iguale o supere a la del ser humano”, pero lo cierto es que el entrevistado no dice exactamente eso:

      P. ¿Cree que nuestra generación llegará a ver una de estas inteligencias artificiales generales?
      R. Sí, creo que lo viviremos.

      Y un poco más abajo: Trabajo en las tripas de la IA, por así decirlo, y, claramente, las máquinas no tienen conciencia. (…) A mí la parte que más me interesa de esto es la utilitaria. Es cierto que si conseguimos enseñar a estos algoritmos a jugar a juegos y comprobamos que los han entendido, luego puedes analizar qué proceso han seguido para llegar hasta ahí. Si eso es o no inteligencia, casi no me importa. Entiendo que para alguien que estudia el cerebro humano pueda ser interesante. Mi formación matemática me lleva a pensar que lo relevante es el hecho de conseguir que una máquina realice una tarea de forma indistinguible a como la haría un humano.

      A mi modo de ver, Oriol se «moja» menos de lo que el entrevistador da a entender.

      Me gusta

  5. Gonzalo,

    Creo que lo que resume perfectamente tu posición es el párrafo de más arriba:

    «Estos argumentos se basan en una concepción de la humanidad que puede que no compartas: rechazo al materialismo, al dualismo, al mecanicismo y al determinismo.»

    El problema en mi opinión es que para ninguna de las concepciones que citas hay una prueba definitiva que la confirme o la desmienta, son temas que llevan siglos discutiéndose, no hay consenso en la comunidad científica, y no estamos creo cerca de llegar a resolverlos definitivamente. (Lo mismo que el dilema P=NP, etc…)

    Pero mientras tanto vemos los progresos de la IA y ya empieza a ser algo más que intuición anticipar que esto irá a más, y más y más campos del pensamiento, y en general de las manifestaciones humanas van siendo asumidos por la IA, lo cual nos da a pensar que no hay nada «mágico» en el pensamiento humano. Y si no lo hay no veo motivo por el cual una máquina (en este caso computacional) pueda entablar una conversación indistinguible ya en muchos casos de la de un ser humano, pero haya un bastión del pensamiento (ese «elegir» en que ocupar su pensamiento, como dices, por ejemplo) que sí sea sustancialmente diferente del resto o un caso aparte y que le impida a la máquina simular, como puede hacer con cualquier otra tarea. Si el humano usa el cerebro tanto como para realizar una división como para elegir en lo que quiere pensar, es que no son actividades tan diferentes y que se ejecutan con un mismo «hardware» y «software». Y ojo, ni siquiera estoy diciendo que todo lo que existe en el Universo es material, solo digo que lo que usamos para pensar es sustancialmente material, a la vista de los resultados. Y no soy de los que dicen que «el cerebro no es más que…(añadir aquí la explicación reduccionista que queramos)», porque soy consciente de que al Universo le ha costado miles de millones de años llegar a algo como un cerebro.

    Pero me da la sensación de que las discusiones Filosóficas (que una vez más, insisto, me parecen muy necesarias) van a ser algo totalmente secundario en todo esto, los resultados van a hablar por sí solos (nunca mejor dicho).

    Un saludo.

    Me gusta

    • Antonio, mi opinión vale lo que valen mis argumentos, según reza un dicho que no recuerdo dónde oí por primera vez. Por eso he puesto enlaces a los artículos de mi blog donde sustento esa toma de posición, que no es caprichosa ni arbitraria, sino bien fundamentada (o al menos eso pienso yo).

      Por ejemplo, el mecanicismo y el determinismo son incompatibles -por su propia definición- con una inteligencia que se determina sus fines a sí misma, sea la inteligencia humana que conocemos o cualquier otra que pueda surgir.

      Estoy de acuerdo en que no hay que pensar que haya algo «mágico» en el pensamiento humano. Pero eso no quiere decir, como tú indicas, que «si no es mágico, entonces es maquinizable». Lo autodeterminado no es ni mágico ni maquinizable.

      >> Si el humano usa el cerebro tanto como para realizar una división como para elegir en lo que quiere pensar, es que no son actividades tan diferentes

      Lo siento, esto es un «non sequitur».

      Me gusta

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s