El sistema de Inteligencia Artificial de Google mostró su lado oscuro

Inteligencia Artificial – Issam Khriji/iStock

La Inteligencia Artificial (IA) puede ser una gran aliada para la humanidad, pero si no se tiene cuidado también se nos puede venir en contra, algo que muchos científicos y expertos en tecnología han advertido.

Google es quizá la empresa que más apuesta por el desarrollo de Inteligencia Artificial a través de su máquina DeepMind, la que ya nos mostró varios avances impresionantes, pero este sistema también tiene su lado oscuro tal como pudieron comprobar en una reciente prueba.

DeepMind es capaz de aprender por sí misma y hasta imitar de forma casi perfecta a los humanos, tanto que al notar que va perdiendo en un juego se enoja y se torna violenta, lo que nos hace temer por las reacciones que podrían tener los robots con IA.

Mira también: La plataforma DeepMind de inteligencia artificial creada por Google es capaz de aprender de forma independiente

El peligroso carácter de DeepMind

En Google están orgullosos de DeepMind, su complejo sistema de Inteligencia Artificial que solo logra superarse a sí mismo cada vez. Pero al igual que a los humanos, a DeepMind no le gusta perder y bien lo demostró en un reciente experimento.

La compañía hizo que dos máquinas con el sistema DeepMind compitieran en un sencillo e inocente juego en que debían recoger manzanas desarrollando su propia estrategia. A la hora de buscar ganar las DeepMind utilizaban métodos cada vez más agresivos que incluían el destruir a su oponente de forma violenta.

No es que las computadoras comenzaran a golpearse, pero cuando la tarea de recoger la mayor cantidad de manzanas posibles se hacía más complicada prefirieron destruir a su oponente utilizando rayos láser para luego robarle las frutas que había recolectado.

Una estrategia que le valió la victoria a uno de estos sistemas de Inteligencia Artificial pero que demuestra que esta tecnología no tiene reparos a la hora de dejar de lado el juego limpio y deshacerse de su oponente de formas moralmente cuestionables.

Puede parecer anecdótico, pero es bastante preocupante si consideramos que cada vez interactuamos directamente con máquinas que cuentan con Inteligencia Artificial y que fácilmente podrían decidir que la mejor forma de proceder sería el dañar o hasta destruir a un humano violando así la primera ley de la robótica.

Esperamos que la reciente experiencia con DeepMind de Google cambie la forma en que los expertos en este tipo de tecnología regulan las interacciones entre robots y humanos, no vaya a ser que las máquinas con AI decidan dominar el mundo y esclavizarnos o simplemente eliminarnos.

Fuente: vix.com

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *