- NeoFronteras - http://neofronteras.com -

Sobre la ética del coche de conducción autónoma

La fabricación y venta de automóviles de conducción autónoma conlleva la necesaria programación de reglas éticas para casos de accidente.

Foto

En los dilemas éticos se pide a un voluntario que responda qué solución tomaría a un problema, por ejemplo el dilema del tren.
Imagine, amigo lector, que usted es el guardaagujas de una estación de tren. Un tren circula normalmente a su hora por su vía normal cuando un autobús cargado de niños se para en la vía justo enfrente a escasos metros. El dilema consiste en decidir si no hacer nada, lo que inevitablemente provocará que mueran muchos niños o desviarlo activamente por otra vía (hay un cambio de vía justo en el lugar) y que vaya justo por la vía en la que está su único hijo jugando (que le ha acompañado ese día al trabajo), por lo que morirá inevitablemente. El problema es que no hay una opción en la que no se pierda. No hay opción ganadora. ¿Qué haría usted?
El caso es que este tipo de decisiones puede que las tenga que tomar el programa de computador que controle un futuro automóvil de conducción autónoma. ¿Compraremos un coche que esté dispuesto a sacrificarnos a nosotros mismos por el bien común?
Ya hay prototipos de autos que se conducen solos, como los de Google, que ya han recorrido más de 2 millones de km por las carreteras norteamericanas. Volvo tiene pensado sacar uno de estos autos en 2017 y la compañía Tesla dice estar también cerca de ofrecerlo pronto al mercado.
Los autos de Google se han visto implicados en unas docenas de pequeños incidentes, según la compañía por culpa de los demás conductores. Pero tarde o temprano el problema es que se presente una situación no ganadora como la del tren en la que tengan que morir personas.
Una rueda puede explotar y la elección puede ser llevarse unos peatones y ciclistas por delante (por lo que morirían seguro algunos de ellos) o chocar contra un sólido muro de hormigón que mate a todos los ocupantes del vehículo (o que caiga por un barranco). Un sistema computacional puede perfectamente tener tiempo suficiente de evaluar la situación y de decantarse por una u otra opción según lo que esté programado. Tendrá un mapa de la situación, sabrá el grosor del muro o la profundidad del barranco, podrá calcular todas las trayectorias, etc. Podrá hacer el cálculo mucho mejor y más rápido que un humano.
Según los expertos en Ética y Filosofía, el decidirse por un caso u otro depende de si usamos el utilitarismo o la deontología en esa programación.
Si nos decantamos por el utilitarismo, el coche deberá chocar contra el muro si así se salvan más vidas de peatones y ciclistas que de ocupantes del vehículo; pues esto produce la mayor cantidad de bienestar para un mayor número de personas.
Si nos decantamos por la deontología no, pues según esta rama del pensamiento la muerte intencionada por acción de alguien es siempre incorrecta. Así que, según esto, uno no puede desviar el tren y que mate a su hijo, aunque mueran muchos niños del autobús por omisión. Aplicado esto mismo al coche con conducción autónoma, significa que el programa nunca debe sacrificar al conductor y sus ocupantes. Siempre tiene que intentar salvarlos, aunque sea a costa de los demás.
Por tanto, antes de que los coches autónomos circulen por ahí habrá que elegir si se implementa el utilitarismo o la deontología en sus programas.
Si se elige el utilitarismo el auto tomará la acción que beneficie a la mayoría, independientemente de las circunstancias. Lo malo es que en este caso debemos considerar cada acto individual como un subconjunto de acciones separado y esto significa que no hay reglas duras y rápidas, sino que cada situación es especial. Según Gregory Pence no se puede programar un ordenador para que maneje todos los casos posibles. “Sabemos esto al considerar la historia de la ética”, añade.
Según este profesor, aplicar la ética de Santo Tomás puede dar lugar a una solución distinta a la que te den otras éticas. Esto se puede comprobar fácilmente en los problemas de la medicina moderna para los que fallan algunas éticas, porque se suelen dar circunstancias especiales y la Medicina está evolucionando constantemente.
Este tipo de estudios recuerda que todos los campos del conocimiento son importantes y que la Ética y la Filosofía no se merecen ser ignoradas y relegadas, pues puede darse el caso en el que sean necesarias. Aunque esta es otra clase de “utilitarismo”.
Por cierto, la mayoría de la gente prefiere no hacer nada y que el tren arrolle al autobús escolar. Esto es lo que además se considera una conducta moral normal, aunque no la tomara Mr. Spock.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=4695 [1]

Fuentes y referencias:
Nota de prensa. [2]
Foto: UAB.