¿Pueden los robots aprender a tener ética y moral?

Los robots, son máquinas que los humanos han creado, diseñado y programado para funcionar a nuestro beneficio y, cada vez son más inteligentes, requiriendo menor interacción.

La inteligencia artificial ha avanzado mucho pero, si bien los robots hoy aprenden mediante la experiencia, queda la duda de si son capaces de tomar decisiones basándose en cosas más humanas, como la ética y moral. Un interesante experimento, nos dio la respuesta.

Etica y Moral en la inteligencia artificial

Tumblr/Tumblr

Los robots más modernos están hechos para que, ante una interrogante o problema, puedan tomar la mejor decisión basándose en factores que nosotros mismos les hemos programado.

Los robots están hechos para ayudarnos, pero qué pasaría si deben decidir entre salvar nuestra vida o la de otra persona. Justo eso quiso averiguar un experimento.

lan Winfield, un investigador del Laboratorio Bristol Robotics en el Reino Unido, creó una experimento muy interesante: Primero, programó a un robot computacional con los principios de la ética humana en cuanto a la importancia de salvar la vida de una persona.

A continuación, creó otro robot, que sería reconocido como una persona que está por caer a un precipicio, siendo el primer robot el encargado de salvarlo. Los resultados demostraron que el primer robot lograba razonar bien a la hora de salvar la vida de este segundo robot “humano”.

Eso sí, las cosas fueron diferentes cuando se le presentó una interrogante más difícil: Dos humanos que iban directo a caer el mismo precipicio al mismo tiempo.
La inteligencia artificial ¿Puede o no tener un pensamiento ético?

Tumblr/alexob

Al presentarle al robot el dilema ético de tener que salvar a dos personas al mismo tiempo, tarea muy difícil o, escoger a quién salvar mientras el otro iba directo a su muerte, los resultados fueron interesantes.

En algunos casos, logró salvar a los dos humanos mediante el uso de su inteligencia artificial, pero en otro sólo le era posible salvar a uno. Cuando estaba ante ese dilema ético, el robot simplemente se veía sobrepasado.

En 14 de los 33 intentos, el robot se vio ante la posibilidad de salvar sólo a una de las dos personas y, en vez de elegir a quién salvar, fue incapaz de dar con una decisión y, ambas personas terminaron cayendo al abismo, ya la inteligencia artificial era incapaz de tomar una decisión en la que la lógica no es el principal elemento.

Los resultados de este experimento, demuestran que existen riesgos en la automatización de funciones por parte de un robot: Por ejemplo, en el los coches sin conductor, el sistema automatizado de manejo tendría que tomar la decisión entre salvar a su tripulante o atropellar a un peatón.

¿Serán capaces alguna vez los robots de enfrentar con éxito dilemas morales o éticos? Eso está por verse en un futuro muy próximo.

Fuente: vix.com

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *