Podríamos ponernos técnicos y hablar de la realidad y futuro del coche autónomo o ponernos emocionales y entrar en el debate de que la pasión y el placer de conducir no terminarán nunca, pero hoy queríamos plantear algo infrecuente en Xataka: una reflexión sobre los debates éticos que traerá aparejado el coche autónomo.
De entre todos los posibles, creo que hay dos que supondrán un desafío por el tipo de elecciones que, como individuos y sociedad, nos tocará hacer. El primero gira en torno a la programación del coche autónomo para situaciones en el que peligren vidas humanas, el segundo respecto a al espacio que dejamos a lo humano cuando la solución tecnológica se demuestra mejor. Veamos:

Coche autónomo y las “leyes de la robótica”

No hay aficionado a la literatura de ciencia ficción que no conozca las tres leyes de la robóticapropugnadas por Asimov en sus relatos de ficción. A saber:

  1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño
  1. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley
  1. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley

Sus lectores también sabemos que gran parte de la obra de Asimov se basa en el conflicto para cumplir esas leyes cuando la máquina alcanza un cierto nivel de inteligencia (en Singularity hub tienen un artículo al respecto) y pensando en trasladarlo al coche autónomo también es fácil concluir que hay que llegar a compromisos.
En situaciones de peligro el conductor está forzado a hacer elecciones casi instantáneas: un niño de repente cruza la carretera y está ahí delante ¿pegamos un volantazo y chocamos con la mediana? ¿y si lo que hay al lado es terraplén? ¿y si quien cruza es un perro? ¿Y si lo que viene es un coche frontalmente?
Podríamos partir de que el coche autónomo sería mucho más prudente y que no se distraería, por lo que tasa de situaciones de peligro debería ser menor, pero es imposible evitar todas las situaciones de peligro al volante. En el caso de un conductor humano, una vez afrontando la situación de peligro, podemos entender la decisión basada en reflejos y casi instantánea que toma, pero con un ordenador es distinto.
Y es diferente porque es una decisión que se toma en frío, que se programa para que el coche se decante por una opción con todo el tiempo del mundo para sopesar pros y contras… una decisión que implica elegir vidas humanas. ¿Cómo es posible programar algo así? ¿hay un algoritmo que pueda incorporar una visión ética que nos convenza? ¿cuáles deberían ser sus prioridades? ¿el menor número de muertos potenciales? ¿tendría en cuenta la edad de los implicados, priorizando a los más jóvenes? ¿aceptamos un coche programado con un algoritmo que puede decidir sacrificarnos en pro de salvar más vidas de otros en una situación de peligro?
El número de preguntas no se queda ahí, porque siendo la del coche una de las industrias más relevantes y competitivas del mundo podemos incluso pensar en otro enfoque: ¿se debe permitir que cada fabricante tenga su algoritmo propio y que sea secreto? se podría dar el caso de que haya fabricantes cuyo coche autónomo tienda más a preservar la vida del conductor y sus acompañantes que el coche de la competencia. En todo caso, el choque cultural es inevitable, estamos preparados – aun con mucho dolor – aceptar que alguien querido muere en un accidente por error humano ¿lo estamos para el caso de ser atropellado por un robot?
Hay un debate ético necesario alrededor del coche conectado y que falten décadas – quizás no muchas – para que sea un producto en el mercado no debería ser óbice para que empecemos a abordarlo.

Vía: http://www.xataka.com/gadgets-y-coches/coche-autonomo-y-debates-eticos