Widgets Magazine
02:18 GMT +318 Septiembre 2019
En directo
    Un automóvil sin conductor cruza el parking de la sede de Google.

    ¿Matar a un niño o a una mujer embarazada? Dilemas morales de los coches autopiloto

    © AFP 2019 / Noah Berger
    Tecnología
    URL corto
    0 10
    Síguenos en

    Mientras los coches autopiloto allanan el camino hacia las carreteras, surgen cada vez más cuestiones sobre su seguridad. El nuevo proyecto de la Universidad Técnica de Massachusetts demuestra cuán difícil sería para la inteligencia artificial tomar una decisión moral.

    La máquina moral —creada en el MIT— presenta una serie de posibilidades  de situaciones de tráfico en los que hay que decidir entre dos opciones peligrosas.

    • ¿Deberías evitar un choque contra cinco peatones que crucen de manera imprudente una calle y golpear un separador de hormigón matando a dos pasajeros dentro del automóvil?
    • ¿Si no hay otra opción, atropellas un grupo de peatones jóvenes o ancianos?
    • ¿Evitas un grupo de gatos y perros chocando contra un doctor y un empresario? 
    • ¿Con sólo dos opciones, atropellas a unos vagabundos que siguen las reglas de tráfico o a un menor de edad que las viola?

    Son las decisiones morales que los coches autopiloto inminentemente tendrán que hacer, y el juego de la MIT revela cuán oscuro ellas pueden ser. El juego incluye todos, de una mujer embarazada hasta los niños pequeños. Tras completarlo se puede ver cómo diferencian tus decisiones y las de otros jugadores.

    Hasta ahora la mayoría de las decisiones se inclinan hacia salvar la vida de una mujer antes que la de un hombre, la vida de menores más que las de ancianos, y las vidas de humanos antes que las mascotas. Y la única cuestión en que se vacila en 50/50 es salvaguardar las vidas de pasajeros o los peatones. Además, el sistema permite crear tu propio escenario (por ejemplo, gatos y perros).

    Un coche autónomo
    © REUTERS / Google
    Según la universidad, el experimento busca establecer una plataforma, primero, para construir la imagen de una opinión mayoritaria sobre cómo deben las máquinas tomar decisiones cuando se enfrentan a un dilema moral, y segundo, la discusión de consecuencias morales por la sociedad.

    De hecho, las empresas que producen este tipo de carros tendrán que lidiar con estas cuestiones en varios años, y es mejor considerar estos dilemas ahora antes de que suceda una de estas situaciones.

    Además:

    Primera víctima fatal del auto del futuro
    El futuro de los vehículos autónomos: Baidu se compromete a adelantar a Tesla
    Perturbador: hackers chinos logran controlar un Tesla Model S (vídeo)
    Etiquetas:
    coche autopiloto, automóviles, MIT
    Normas comunitariasDiscusión
    Comentar vía FacebookComentar vía Sputnik