Imagine que un coche se mueve a 80 kilómetros por hora por una carretera. En su interior viaja una niña sola, porque se trata de un vehículo inteligente, autónomo al 100 %. De pronto, tres niños se abalanzan sobre la carretera por error y el coche debe elegir en milésimas de segundo: seguir hacia adelante y atropellar a tres niños o dar un volantazo y estamparse contra un muro, con su pequeña pasajera dentro.
¿Qué debería hacer el coche? Es probable que haya optado por salvar a los tres niños. Ahora, imagine que el coche es suyo y la niña, su hija. ¿Compraría para su familia un coche que va a matar a sus tripulantes para salvar otras vidas?
Los programadores se verán obligados a escribir algoritmos que anticipen situaciones en las que haya varias personas que podrían resultar perjudicadas", explica Azim Shariff, especialista en comportamiento ético de la Universidad de Oregón.
El bien mayor, como la ética, se desliza por una pendiente muy resbaladiza cuando se lleva a lo personal, como han mostrado unos investigadores en un estudio que publican en Science. A través de una serie de preguntas, sondearon la opinión de ciudadanos norteamericanos sobre estos dilemas.
La primera conclusión es que la mayoría de los encuestados quiere que los coches autónomos tengan esta moralidad utilitarista: mejor matar a un pasajero que atropellar a 10 peatones. Sin embargo, la mayoría asegura que no compraría un coche con estos criterios en su algoritmo.
La gran paradoja de los vehículos inteligentes sería que su perfección a la hora de reducir el número de muertes provoque que los usuarios no quieran comprarlos. Y cada año que se retrasen será un año en el que no se estarán evitando accidentes debidos a errores o negligencias humanas; el 90 % de los accidentes actuales, según algunos cálculos. Pero nos aterra pensar que nuestros coches estén programados para matar, para matarnos. Preferimos que ese algoritmo esté solo en los de los demás.
"Los programadores se verán obligados a escribir algoritmos que anticipen situaciones en las que haya varias personas que podrían resultar perjudicadas", explica Azim Shariff, uno de los autores del trabajo. "Son cosas que no van a poder evitar. Habrá situaciones en las que las reglas generales van a entrar en conflicto y tiene que haber algoritmos escritos para hacer frente a esto", concluye Shariff, especialista en comportamiento ético de la Universidad de Oregón, EE.UU.
bhr/anz/msf