Seminario Internacional de Ética e Inteligencia Artificial

Universidade de Caxias do Sul, Brasil
Seminario Internacional de Ética e Inteligencia Artificial: Escenario y Perspectivas

Conferencia invitada (en español)
Una lección aprendida de la IA: la ética no es un juego de imitación

Lunes, 21 de noviembre de 2022 a las 18:00-20:00 (España), 14:00-16:00 (Brasil)

PROGRAMA COMPLETO DEL EVENTO (21-22-23 de noviembre)
Información e inscripciones
Cada una de las tres sesiones consta de dos intervenciones de 30 minutos a cargo de los ponentes, el resto del tiempo será dedicado al coloquio con los asistentes.

Para recibir certificado de asistencia es necesario inscribirse y asistir al menos a un 75% del seminario. El seguimiento por YouTube no requiere inscripción.

Día 21: Gonzalo Génova Fuster, Antonio Luis Terrones Rodríguez
Transmisión en directo YouTube

Día 22: Itamar Soares Veiga, Joel Luís Carbonera
Transmisión en directo YouTube

Día 23: Carine Geltrudes Webber, Liliana Acosta Arias
Transmisión en directo YouTube


Entrada estrechamente relacionada: La ética no es un juego de imitación.

3 comentarios en “Seminario Internacional de Ética e Inteligencia Artificial

  1. Buenas Gonzalo,

    Ante todo enhorabuena por el contenido del seminario interesante como siempre.

    ¿Te parecería bien si desde aquí planteo algunas observaciones a modo de debate sobre el mismo?

    Un saludo.

    Me gusta

  2. Buenas,

    Aun a costa de hacer esto un poco largo voy a intentar plasmar todas las ideas que se me han ido ocurriendo mientras veía tu intervención.

    Por un lado, y una vez más, estamos ante un problema que ni siquiera está resuelto entre humanos. En un momento de la presentación dices que se requeriría discernir entre el bien y el mal para resolver este tipo de dilemas morales. Casi nada.

    Como en cualquier problema moral intervienen valores, criterios, perspectivas…de hecho el planteamiento de los dilemas ya lleva implícitos ciertos valores, que ni se mencionan, supongo que por ser demasiado obvios, pero a los que también se les podría sacar punta: está implícito que la vida de los humanos está por encima del mobiliario urbano, pero…¿qué pasaría si hubiera que elegir entre que el coche mate a alguien o que destruya una infraestructura de elevadísimo valor económico clave para el bienestar de millones de personas?

    También puede tratarse de un problema irresoluble, según el planteamiento. No me extenderé en esto, solo apunto a la posibilidad.

    Para mi a clave está en los criterios que elijamos para «resolver» los dilemas. El problema es que estos criterios pueden ser múltiples, casi infinitos, y a priori igualmente válidos. Se me ocurren:

    – Salvar (cuantitativamente, sin más) el mayor número de vidas posibles.
    – Salvar (cualitativamente) la mayor cantidad de vidas posibles. Me explico. La «calidad» de la persona cuenta, sea lo que sea lo que eso signifique. Podríamos convenir que la vida de un asesino en serie «vale» menos que la de alguien que aporta bienestar a la comunidad, por ejemplo, un misionero en Africa. Aunque puede haber un alto consenso en pensar así (yo de hecho así lo pienso) esto ya presupone un sistema de valores mediante el cual llegamos a la conclusión de que el asesino es peor persona que el misionero, en todas las circunstancias. Lleva también implícito que el asesino «elige» ser asesino, y el misionero hace lo propio. Presupone libre albedrío, en definitiva.
    – Salvar la mayor cantidad de años esperados de vida. El niño cuenta más que el anciano.
    – Salvar la mayor «experiencia de vida» posible. El anciano cuenta más que el niño.
    – Salvar al más vulnerable. Aquí sería difícil de discernir si es más vulnerable un niño que un anciano.

    Todo esto claro, suponiendo que tenemos la correspondiente información de las personas candidatas a ser atropelladas en el dilema.

    Es decir, el problema se «reduciría» a elegir unos valores y unos criterios «correctos», ya que al menos parece que unos criterios son peores que otros. Por ejempo, convendríamos que el criterio de «salvar a las personas con menos pelo» sería un criterio incorrecto. Pero cabe la dificultad de elegir entre varios criterios que todos ellos parecen ser correctos, o al menos tener algo de correcto.

    En definitiva, lo mismo no es tan malo elegir la solución de qué haría la mayoría. Al fin y al cabo…¿un humano se haría estos planteamientos ante una situación real de este tipo? ¿El humano haría siempre «lo correcto», sea lo que sea lo que eso significa, frente a la máquina que simplemente actuaría según un algoritmo previamete entrenado basándose en las decisiones humanas?

    A las inteligencias artificiales que crean arte (tan populares hoy en día) se les ha entrenado con arte humano para crear arte artificial que sea apreciado por sus cualidades por los humanos. Podemos discutir los criterios que se han elegido para esto (si es que los hay, o tal vez simplemente se les ha entrenado con toneladas de arte humano). Pero el hecho es que los resultados que producen parecen arte humano. Nótese que aquí aplico «parecer» en sentido fuerte, en el sentido de que es un arte a priori indistinguible del que producimos los seres humanos.

    Un saludo.

    Me gusta

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s