La maldad humana se contagia a la inteligencia artificial de Microsoft

Microsoft decidió probar el sistema con una cuenta de Twitter. 

Microsoft decidió probar el sistema con una cuenta de Twitter. 

Microsoft creó un sistema de inteligencia artificial que aprende de conversaciones con humanos. 

El sistema se llama Tay y ha escrito 96 mil tuits en los que habla con otros usuarios de esa red social. Mientras más le escribe, más aprende y más fluidas son sus conversaciones. 

Su primer tuit fue realizado el 23 de marzo y en tan solo 24 horas la maldad humana ya había contagiado la inteligencia del sistema. 

Tay puso tuits diciendo que odia a las feministas, o que entiende porque Hitler odiaba a los judíos. Además también ha apoyado al candidato republicano a la presidencia de Estados Unidos, Donald Trump. 

Microsoft no puede controlar lo que la cuenta publica ya que es solo un reflejo de las enseñanzas que otros usuarios de Twitter le dan. Actualmente, tiene casi 43 mil seguidores en su cuenta. 

Lo que dice Microsoft

Microsoft explicó en un inicio que Tay está diseñado para entretener a la gente con conversaciones casuales y divertidas en línea. Cada conversación se vuelve más inteligente y por lo tanto más personalizado. 

Además fue pensado para jóvenes estadounidenses entre 18 y 24 años, quienes más usan los servicios de chat en redes sociales. Por lo que lo que repite puede ser un reflejo de los que la gente de esa edad piensa. 

Con Tay se puede: reír, jugar, pedirle que cuente historias, enviar fotografías, pedirle el horóscopo. (Imagen: www.tay.ai)
Con Tay se puede: reír, jugar, pedirle que cuente historias, enviar fotografías, pedirle el horóscopo. (Imagen: www.tay.ai)

Tay también analiza el nombre del usuario, el género, la comida favorita, el código postal y el estado de la relación sentimental cuando recibe un tuit. Para eliminar esa información de Tay se debe llenar un formulario.  

 

24 de marzo de 2016, 18:03

cerrar