La tecnología ha avanzado tanto, en apenas una década, que los coches autónomos, capaces de conducir solos por calles, carreteras y autopistas, podrían llegar al mercado en pocos años. En algunos países como Estados Unidos, donde automóviles experimentales sin conductor ya han recorrido millones de kilómetros, empiezan incluso a legislar su incorporación al tráfico rodado.
Prometen más comodidad, menos contaminación y, sobre todo, más seguridad. Se calcula que el 90% de los accidentes se deben a fallos humanos. El problema son los dilemas morales que acarrea. Por ejemplo, si con ellos se quiere reducir al máximo las muertes en carretera, hay que programarlos para que, en situaciones límite, maten a sus propios ocupantes. Por ejemplo, dando un volantazo y estrellándose contra un muro -matando a sus dos ocupantes- por evitar atropellar a tres personas.
En el mundo mueren cada año un millón de personas por accidentes de tráfico. Si todos los coches fuesen autónomos se calcula que podrían reducirse a menos de 10.000, especialmente si estos se programan con lo que los filósofos denominan una ‘moral utilitaria’, es decir, buscando reducir al máximo el número de víctimas, pero la gente prefiere un coche que dé prioridad a proteger a los ocupantes.
Esta situación pone al futuro del coche autónomo en un doble dilema de difícil solución. Si todos los coches dan prioridad a proteger a sus ocupantes, el número de fallecidos por accidentes de tráfico sería mucho mayor. Y si los gobiernos legislan para obligar a que tengan una moral utilitaria, puede que nadie se anime a comprarlos y por tanto se pierda por completo su efecto de reducción de víctimas.
Los coches autónomos abren, además, un dilema legal sobre la responsabilidad en caso de accidente. ¿Quién tiene la culpa de un siniestro cuando lo provoca un vehículo sin conductor? ¿El dueño? ¿El fabricante del automóvil? ¿El programador del algoritmo de toma de decisiones?
(Extracto. Adaptación libre)
Imagen: coches.net