TECNOLOGíA, TRANSPORTE

¿Cómo actuará un coche autónomo ante un accidente inevitable?

¿Cómo actuará un coche autónomo ante un accidente inevitable?

Por Zuberoa Marcos | 20-11-2016

Iyad Rahwan

Iyad Rahwan

Director de Scalable Cooperation, MIT Media Lab

En Inteligencia Artificial, película oscura y visionaria ideada por Stanley Kubrick pero dirigida varios años después de su muerte por Steven Spielberg, el niño robótico protagonista es incapaz de entender porqué algunas de sus decisiones -que él considera correctas en base a los parámetros para los que ha sido programado- son malinterpretadas por los humanos. La posibilidad de que las máquinas intenten reproducir nuestras emociones y juicios morales es presentada como una distopía en la que no salimos muy bien parados. Tal vez porque la lógica y las construcciones sociales -cambiantes y hasta contradictorias- nunca mezclaron bien. Sin embargo, cuando se acerca cada vez más el tiempo en el que muchas de las tareas cotidianas serán hechas por robots, es necesario preguntarse cómo responderán ante dilemas éticos. ¿A quién salvará un robot de rescate en caso de tener una sola posibilidad: a un niño o a un adulto? ¿Y en qué algoritmo moral estará basada esa decisión? ¿Qué hará un coche autónomo: atropellará dos peatones para salvar la vida de su conductor o su decisión será optar por el mínimo daño? Hace unas semanas, el fabricante alemán Mercedes (que está investigando en coches completamente autónomos) levantó un gran revuelo cuando Christoph von Hugo, directivo de la marca, argumentó: “Si sabes que puedes salvar al menos a una persona, sálvala. Salva a la persona que está en el coche. Si de lo único que tienes seguridad es de que puedes prevenir esa muerte, esa debe ser tu prioridad”. Que tiemblen los peatones…

Por supuesto, no todo el mundo está de acuerdo. De hecho, mientras los fabricantes de automóviles y las empresas de tecnología se afanan en colocar sensores cada vez más precisos y mejorar las capacidades de conducción de los vehículos, hay científicos que ya trabajan para resolver este gran dilema moral. Se trata de conseguir que las máquinas se representen de la mejor forma posible cuál sería el comportamiento de un humano en las distintas situaciones para poder reproducirlo. Aunque aquí tampoco hay consenso absoluto. El equipo dirigido por Iyad Rahwan en el MIT lleva tiempo trabajando en las interacciones entre las ciencias sociales y la inteligencia artificial. Fruto de estos trabajos es una web (http://moralmachine.mit.edu/hl/es) en la que, a  través de distintas preguntas, tratan de establecer cuál sería el comportamiento más adecuado  que debería tener un coche sin conductor desde un punto de vista moral para la mayoría. Y lo primero que han detectado, asegura Rahwan es que “casi por unanimidad la gente quiere coches que minimicen los daños totales. El problema viene cuando les preguntamos si comprarían ese coche. Su reacción fue: nunca compraría un coche que me pudiera hacer daño a mí bajo ninguna circunstancia”.

Las investigaciones de Rahwan parecen demostrar que los humanos nos guiamos en demasiadas ocasiones por esa máxima marxista (de Groucho) en la que afirmaba: “estos son mis principios, si no le gustan, tengo otros”. Por eso, él cree que “al dejar cada vez más decisiones en manos de máquinas, al mismo tiempo debemos desarrollar también un contrato social entre la gente y los algoritmos que toman esas decisiones importantes. Para supervisar su comportamiento, hacerlos responsables y poder desenchufarlos si se da el caso”.

Edición: Diego Carabelli
Texto: José L. Álvarez Cedena

Transcripción de la conversación
IYAD RAHWAN
00:33
Es difícil identificar cuáles son los principios éticos que deberían gobernar el comportamiento de un coche autónomo. No porque esos comportamientos sean necesariamente difíciles desde el punto de vista técnico. Hay desafíos técnicos, pero yo creo que el mayor desafío es el social. ¿Cómo conseguimos que la sociedad se ponga de acuerdo en cuáles deberían ser esos principios? Por un lado, tenemos herramientas que nos ayudan a dar voz al público y a comprender qué es lo que le preocupa. 
IYAD RAHWAN
01:04
Un ejemplo sería la herramienta que hemos creado, se llama “Moral machine”. Es una página web en la que todo el mundo puede entrar, que genera dilemas éticos aleatoriamente relacionados con un coche autónomo, y le preguntamos a la gente cómo cree que debería reaccionar el coche en una situación donde el daño sea inevitable. Casi por unanimidad, que la gente quiere coches que minimicen los daños totales. El problema viene cuando les preguntamos si comprarían ese coche. Su reacción fue: “Nunca compraría un coche que me pueda hacer daño a mí bajo ninguna circunstancia”. 
IYAD RAHWAN
01:54
Las otras herramientas que yo creo que son importantes, son las que tendrán los legisladores. Necesitamos cierta transparencia. Tradicionalmente, la gente ha propuesto: “Si me mostráis el código fuente, entonces habrá transparencia”. Pero el problema de los algoritmos de aprendizaje automático es que aunque veas el código, no puedes saber qué es lo que hará. Un algoritmo de aprendizaje automático es simplemente eso, un algoritmo de aprendizaje. Lo que haga dependerá de lo que haya aprendido y de la información que haya utilizado para aprender. Es algo que solo se revelará a través del comportamiento. Es similar a la manera que tenemos de tratar la ética humana. No abrimos el cerebro de la gente para analizar sus neuronas y ver si son éticas. Lo que hacemos es observar su comportamiento, y tenemos un conjunto de principios definido a través del cual juzgamos ese comportamiento. 
IYAD RAHWAN
03:12
Al dejar cada vez más decisiones en manos de máquinas, al mismo tiempo debemos desarrollar también un contrato social entre la gente y los algoritmos que toman esas decisiones importantes, para supervisar su comportamiento, hacerlos “responsables” y poder desenchufarlos si se da el caso.