Widgets Magazine
04:55 GMT +319 Octubre 2019
En directo
    Un robot

    ¿Existe la moral en los robots?

    © AFP 2019 / Johannes Eisele
    Tecnología
    URL corto
    0 10
    Síguenos en

    La capacidad de tomar decisiones de manera autónoma de los robots y otras formas de inteligencia artificial abre una serie de interrogantes sobre las implicancias morales y la responsabilidad de sus acciones.

    Un vehículo automático con un pasajero a bordo transita al borde de un precipicio. De frente, se aproxima un coche normal con una familia de cinco personas. El automóvil inteligente tiene la capacidad de analizar la situación y decidir qué hará ante el inminente riesgo de colisión.

    Si choca, las posibilidades de que mueran los seis implicados son altas.Si se lanza al precipicio, se salva la vida de una familia entera, pero la persona que va en él morirá.

    ¿Qué decisión tomaría el coche robótico? El dilema parece salido de un escenario improbable. Pero dado el avance de la inteligencia artificial en la vida cotidiana, situaciones así están más cerca de lo que crees.

    "¿Cómo actuarán moralmente las máquinas para tomar decisiones cuando puedan tener esa capacidad de cálculo? ¿Quién va a ser responsable de los errores en las decisiones que tome una máquina que fue aprendiendo sola? Es un campo que está en desarrollo. Hay hasta grupos de juristas que están analizando estos nuevos horizontes", dijo el especialista argentino en robótica, Gonzalo Zabala.

    Le puede interesar: El insospechado efecto de los vehículos sin conductor

    En el derecho, los debates en torno al tema no tienen una respuesta. Hoy por hoy, la responsabilidad recae en las empresas, pero a medida que la inteligencia artificial van aumentando sus capacidades de tomar decisiones por sí solas, el vacío legal que genera la situación se vuelve más evidente.

    Zabala citó el sitio web Moral Machine, del prestigioso Instituto de Tecnología de Massachusetts (MIT), que presenta al internauta diversas situaciones conflictivas que muestran la dificultad de juzgar moralmente las decisiones de vehículos inteligentes.

    Según la web del proyecto, la finalidad no es solo entender cómo los humanos toman decisiones, sino entender de manera más clara cómo perciben la inteligencia artificial. Y esto cada vez cobra más importancia en la sociedad actual.

    Mire también: El primer combate del mundo entre robots humanoides

    Los servicios de atención al cliente están siendo suplantados por 'chat bots', programas capaces de mantener una conversación. Las aplicaciones de traducción, así como aquellas que reconocen el lenguaje natural o las de navegación satelital que pueden detectar atascos en una ciudad —en base a la información de sus usuarios— son una realidad que las personas llevan en sus bolsillos.

    Con algoritmos y datos disponibles en internet, el aprendizaje automático —o machine learning— le ha cambiado el enfoque a la inteligencia artificial. Las informaciones así obtenidas por las máquinas las dotan de capacidad de tomar decisiones en base a sus experiencias.

    Según el experto, idear estas soluciones implica realizar una reflexión que tenga en cuenta la complejidad de la inteligencia humana. Sus distintos tipos y otros mecanismos internos propios de la mente humana entran en juego en ese proceso.

    Le puede interesar: Aprende cómo defender tu trabajo de los robots y las máquinas

    "Cuando nos ponemos a ver sistemas o cómo hacer una máquina inteligente, nos ponemos a reflexionar sobre nuestra propia inteligencia y los mecanismos que tenemos, como por ejemplo el aprendizaje. Está bueno el desafío no solo por el objeto en sí mismo, sino porque nos lleva a pensar en nosotros mismos", explicó Zabala.

    La inteligencia humana "es simplemente una circuitería compleja", con una arquitectura distinta a la de las computadoras. No trabaja con bits sino que lo hace con niveles de sustancias químicas, de manera analógica y no digital. Estas diferencias le dan "cierto grado de aleatoriedad" que se puede simular, pero no alcanzar.

    De acuerdo con el experto, la inteligencia artificial "no es peligrosa en sí misma", sino que la valoración se basa sobre los usos que se le den, que serán los que "van a determinar su peligrosidad o no".

    Como ejemplo, el experto puso la energía nuclear. Por un lado, ejemplos como los bombardeos de Hiroshima y Nagasaki en 1945 muestran la enorme cantidad de muertos que puede llegar a causar. Pero por otro, la generación de energía y los usos médicos son ejemplos de buenas prácticas basadas en la tecnología nuclear.

    Lea también: "La pérdida de empleos a manos de robots es algo real"

    "Uno de los planos de la humanidad en la cual va a tener un terrible impacto es en el tema del trabajo, no solo la inteligencia artificial sino todas las tecnologías que están impactando en él", dijo Zabala.

    Robot (archivo)
    © Sputnik / Maria Sibiryakova
    En 2050, se estima que las fábricas estarán robotizadas en un nivel superior al 90%. Si bien han desaparecido muchos puestos por el surgimiento de tecnología, al mismo tiempo han surgido nuevos trabajos. Además, los que se generan "son de mayor nivel" y alejan al ser humano de tareas "totalmente alienantes o tareas que no podemos realizar". Todo esto cambiará la concepción del trabajo, aseguró el experto.

    A su criterio, es improbable pensar en un escenario extremo en el que todas las personas que pierdan su trabajo sean excluidas. Esto llevará a plantearse una sociedad "en la que desaparezca el concepto de trabajo".

    "Seguramente el camino va a estar en el medio. Nosotros ya recibimos los beneficios de la tecnología y no solo en las clases sociales más altas ni en los países del primer mundo: en todo el planeta no se trabaja igual que hace 50 o 100 años atrás ni se trabajan las mismas horas", comentó el especialista.

    Escuche también: "Los robots ya reemplazan a una cantidad de periodistas"

    Para Zabala, no son los robots la principal afrenta que se acerca para la humanidad. Por el contrario, las mismas personas y su nivel "delirante" de consumo y producción constituyen una amenaza concreta en el corto plazo.

    "[Lo de la inteligencia artificial] suena más mediático o más fácil de ver y el tema de los recursos sustentables queda un poco relegado. A mí me preocupa mucho el retroceso que tuvo EEUU con respecto al Acuerdo de París y aún en países que lo sostienen se ve un nivel de producción de objetos de consumo delirante", concluyó.

    Además:

    'Heavy metal': así tocan música los robots industriales
    EEUU da la voz de alarma sobre los temibles robots de combate rusos
    "Si los robots comienzan una guerra, será por culpa de los humanos"
    Nadie está seguro en su trabajo: los robots ya realizan ritos funerarios
    Etiquetas:
    robots, inteligencia artificial, tecnología
    Normas comunitariasDiscusión
    Comentar vía FacebookComentar vía Sputnik