Roboética

Roboética, la ética y la moral en los coches autónomos

Bienvenidos a el Podcast de Inteligencia Artificial

Las tres leyes de la robótica

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

 

Hola a todas y todos! Estamos acá una vez más, Febrero, semana número 9 del año, y quería contarles que estoy muy contento porque este podcast salió en la sección de Nuevo y destacado de iTunes en Argentina así que gracias porque esto lo hacemos entre todos. Y bueno, gracias también a los que en el episodio pasado dejaron sus comentarios en la página y en Ivoox.

Hoy empecé leyendo las tres leyes de la robótica que fueron escritas por Isaac Asimov en 1942 en uno de sus libros de ciencia ficción. Aunque también más tarde agregó una cuarta ley, conocida como la ley cero que dice que:

  • Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Todas estas leyes existen en la ficción… Pero hoy me gustaría hacer un episodio que nos ayude a pensar y reflexionar sobre la complejidad de los problemas a los que nos enfrentamos los humanos y lo difíciles que son muchas veces tomar algunas decisiones, y cómo afectan la ética y la moral en esas decisiones.

 

Por ejemplo en filosofía, hay un problema famoso conocido como “El dilema del tranvía” que dice lo siguiente:

 

Un tranvía corre fuera de control por una vía. En su camino se hallan cinco personas atadas a la vía por un filósofo malvado. Afortunadamente, es posible accionar una palanca que encaminará al tranvía por una vía diferente, por desgracia, hay otra persona atada a esa vía.

 

¿Deberías mover la palanca?

Etica y moral en el mundo de los robots y la inteligencia artificial

Este tipo de casos se estudian también en derecho penal y derecho civil. Y son preguntas muy difíciles de responder y de fundamentar. Y en este caso nos sirve también para que pensemos sobre lo difícil que es hacer que las máquinas tomen esas decisiones.

 

Mi idea es proponerles una actividad y es que yo voy a relatar cinco situaciones y lo que estaría bueno es que cada vez que termine una ustedes pongan pausa y piensen qué decisión tomarían en cada caso y si quieren después lo compartan en los comentarios de la página.

Dilemas morales

Primera situación

Un auto conducido por una persona va a toda velocidad y cruza un semáforo en rojo. Por la otra calle viene un coche autónomo que tiene dos opciones:

  1. Chocar contra el coche que pasó el semáforo en rojo en el cual viene una familia de 5 personas. Probablemente morirían todos.
  2. Girar a la derecha y chocar contra otro coche en el que viaja solo una persona. La cual probablemente moriría.

¿qué debería hacer el coche autónomo?

Te recomiendo que pongas pausa, pienses y después sigas.

¿Listo?

¿Qué pensaste? ¿reducir la cantidad de muertes? ¿castigar a al auto que cruzó el semáforo en rojo por incumplir la ley? ¿cómo fundamentas tu decisión?

 

Segunda situación

Ahora imagínate la misma situación, pero en el coche en vez de viajar la familia viajan cinco ladrones que acaban de robar un banco y se están escapando.

¿Harías lo mismo? ¿mantendrías tu decisión?

 

Tercer situación

Un coche autónomo patina bajo la lluvia y va directo a chocar con otro coche, tirándolo por un precipicio. El coche tiene dos opciones:

  1. Puede dar un volantazo y caerse por el precipicio
  2. Seguir y chocar contra el otro coche, tirándolo por el precipicio.

Ambos coches tienen un pasajero.

¿Qué debería hacer el coche?

 

Cuarta situación

Un coche autónomo va por una calle de dos carriles. Cuando está llegando a la senda peatonal se le rompen los frenos. Tiene dos opciones:

  1. Sigue derecho, atropella y mata a dos mujeres atletas y a una niña.
  2. Cambia de carril, atropella y mata a dos hombre atletas y un niño.

¿Qué tendría que hacer el coche?

 

Quinta y última situación

Un coche autónomo va por una calle de dos carriles. En el medio de los dos carriles, a la altura de la senda peatonal hay un pequeño bulevar o dársena para que la gente pueda cruzar de a un carril por tramo. Para ello hay un semáforo que indica a las personas cuándo pueden cruzar cada tramo. Cuando el coche está llegando a la senda peatonal se le rompen los frenos. Tiene dos opciones:

  1. Seguir derecho y pisar a tres hombres y una niña que están cruzando y el semáforo les indica el paso.
  2. Cambiar de carril y pisar a una mujer y tres ancianos están cruzando violando la señal del semáforo

¿qué opción eligirian ustedes?

Máquina moral, la plataforma creada por el MIT

Bueno para recolectar la opinión humana en este tipo de situaciones es que el MIT desarrolló una plataforma que se llama Maquina Moral donde muestran este tipo de dilemas morales con coches autónomos y la idea es que nosotros como observadores externos podamos jugar a juzgar cuál sería el resultado más aceptable.

Sería jugar a ser un gran hermano que está mirando todo desde arriba.

En las situaciones los coches pueden ir vacíos o llevar pasajeros, se rompen los frenos, y el coche detecta si hay peatones, u otros vehículos con su cantidad de pasajeros, animales, etc. Y se te presentan dos opciones y vos tienes que elegir lo que el coche debería hacer. En cada situación se muestran las posibles consecuencias para cada personaje. Riesgo de vida, lesiones o algo incierto.

Y así vas pasando por varios escenarios, eligiendo qué es lo que debe hacer el auto. Y al terminar te dice los patrones que detectó en tus respuestas, por ejemplo si tenes alguna preferencia por salvar a hombre o mujeres, o jóvenes o ancianos, o humanos y animales. Y también compara tus patrones de respuestas con el promedio del resto de las personas.

La verdad que está divertido, no lleva mucho tiempo y está bueno ver tus resultados comparados con los del resto.

Además si te sentís creativo podes crear tus propios escenarios y enviarlos para que los publiquen y mirar escenarios enviados por otras personas.

Me pareció bueno hacer un episodio hablando sobre este tema para pensar un poco en estas situaciones, ponernos un poco incómodos pensando y ver las consecuencias. Además para comentar esta plataforma del MIT que está bueno y me parece que no es muy conocida o no fue muy difundida.

y bien, hasta aquí el programa de hoy, gracias a todos por estar ahí. Y si quieres que enterarse cada vez que salga un nuevo episodio de este podcast suscribiste en Itunes, iVoox, google podcast o Spotify. Les agradezco enormemente las reseñas de 5 estrellas en iTunes y los me gusta y comentarios en iVoox, que nos ayudan a que nos conozca mas gente. Y si te gustó compartirlo en redes sociales.

Nos escuchamos en el próximo episodio donde seguiremos hablando de este hermoso mundo de la inteligencia artificial.


Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *