La mayoría de los conductores no estaría dispuesta a subir a un vehículo autónomo que no pusiera la seguridad de los pasajeros por delante de la de los peatones.
Un estudio del Instituto Tecnológico de Massachusetts (MIT) publicado esta semana en la revista Science muestra que el público tiene opiniones encontradas a la hora de determinar cómo debería actuar un vehículo autónomo en situaciones en que tenga que decidir entre atropellar a peatones o salirse de la carretera y poner en riesgo a los pasajeros.
“La mayoría de las personas quiere vivir en un mundo en el que los vehículos minimizan el número de víctimas. Pero todos quieren que su automóvil los proteja a ellos primero a toda costa”, aseguró en una nota de prensa Iyad Rahwan, profesor del prestigioso MIT Media Lab y coautor de la investigación.
El informe, titulado “El dilema social de los vehículos autónomos” se basó en seis encuestas entre junio y noviembre de 2015.
Primero yo
El 76 por ciento de los encuestados consideró que es más “moral” para un vehículo autónomo decidir “sacrificar” y no atropellar a diez peatones.
No obstante, solo uno de cada tres dijo que se subiría a un vehículo autónomo cuyo algoritmo estuviese programado para arriesgar la vida de los pasajeros a cambio de salvar a diez peatones.
Asimismo, la mayoría se opuso a que el gobierno regule estos automóviles robóticos, para que tengan una moral “utilitaria”, en la que se ponga en la balanza el número de vidas a salvar y el número que se arriesga a morir.
“Este es un desafío que deben tener en consideración los reguladores y fabricantes de vehículos”, explicaron en las conclusiones los investigadores.
Los científicos apuntan también que en el caso de que los vehículos autónomos mejoren de tal modo que sean más seguros que los vehículos manejados por humanos, este tipo de moralidad “utilitaria” podría poner en riesgo más vidas que las que salva.