La verdad sobre la inteligencia artificial desconectada por Facebook

Los desarrolladores de la inteligencia artificial consideran un éxito la interacción del sistema. (Imagen: Lectura Lab)

Los desarrolladores de la inteligencia artificial consideran un éxito la interacción del sistema. (Imagen: Lectura Lab)

Durante la última semana de junio, trascendió que la división de Facebook de desarrollo de inteligencia artificial (FAIR, por sus siglas en Inglés), canceló un sistema debido a que había creado su propio lenguaje, lo que puso en alerta al mundo entero.

El temor de muchos radicó en la posible creación de un Skynet de la vida real, esa red tecnológica autónoma que lidera al ejército de las máquinas en la saga de películas de Terminator.

  • ASÍ TE LO CONTAMOS:

Sin embargo, la realidad es menos tenebrosa que la creación de una red que busque controlar al mundo. Hace poco, FastCo Design dio cuenta de los intentos de Facebook por desarrollar una “red generativa adversaria” con el fin de desarrollar un software de negociación.

En junio, la unidad de Investigación en Inteligencia Artificial de Facebook, explicó en su blog que los dos “bots” fueron diseñados con el fin de demostrar que es “posible para agentes de diálogo con diferentes objetivos, participar en negociaciones con otros `bots´ o personas, y llegar a decisiones o acuerdos comunes".  

  

Los “bots” no hicieron más que discutir entre ellos cómo dividir una matriz de elementos dados, de una manera que el resultado fuese mutuamente aceptable.

La intención era desarrollar un chatbot (programa que simula mantener una conversación), que gracias a la interacción humana, aprendiera a negociar con un usuario, de manera que este último no se dé cuenta que habla con un robot, por lo que en ese sentido, el FAIR afirma que tuvo éxito.

Es cierto que Facebook apagó la inteligencia artificial, pero no porque entrasen en pánico por haber liberado a un posible Skynet sacado del universo de Terminator
Mike Lewis
, investigador del FAIR.

Cuando Facebook logró que ambos “bots” hablaran entre sí, los programadores descubrieron que cometieron el error de no haberlos incentivado a comunicarse según las reglas de un inglés comprensible para los humanos, por lo que en su intento por aprender el uno del otro, los “bots” conversaban en abreviaturas que creaban.

  • POR SI NO LO LEÍSTE:

Los “bots” de Facebook son un ejemplo de lo que ocurre cuando a dos máquinas se les permite aprender una de la otra, pero cuando sus abreviaturas son explicadas, la conversación se hace más comprensible y deja de ser espeluznante para la humanidad.

*Con información de Gizmodo

01 de agosto de 2017, 18:08

cerrar