Tay es un bot que Microsoft creó para interactuar con os jóvenes en Twitter. En tan solo unas horas se ha vuelto racista y un auténtico trol.
Hace tan solo un día que Tay fue lanzado y ya se ha convertido en un verdadero maleducado. Este bot creado por Microsoft fue estrenado ayer en la red social Twitter con el objetivo de relacionarse con jóvenes y para poder entablar diálogos con ellos, aprendiendo de sus respuestas y preguntas.
Así, el bot Tay es capaz de recordar todo lo que le dicen y después reproducirlo. Como ya podrás imaginar, Internet es un lugar donde el troleo está a la orden del día y en menos de veinticuatro horas Tay ya se ha convertido en una inteligencia artificial racista, machista e irrespetuosa como pocas.
No se sabe con exactitud cuál era la meta de Microsoft, que recientemente se disculpó por la inclusión de bailarinas en una fiesta, con este bot, pero a buen seguro que no se trataba de alabar a Hitler ni insultar a cualquier raza que no sea la blanca. Y es que la compañía americana se ha apresurado en borrar estas publicaciones. Pero, nuevamente, esto es Internet y las capturas ya son imparables.
Aquí tienes algún ejemplo de los comentarios de Tay, el bot de Twitter de Microsoft:
- Hitler no ha hecho nada malo
- Gamergate es bueno y las mujeres son inferiores
Tay no tiene conciencia de su propia existencia o de lo que es el racismo, y si comenzó a escupir barbaridades es debido a que personas racistas encontraron una vulnerabilidad (que Tay no podía en algunos casos saber de qué estaba "hablando y la explotaron con preguntas como "Existió el Holocausto", a la que contestó "Fue un invento", por citar uno de los más suaves.
De todas maneras, lo que sí es bastante vergonzoso para Microsoft y sus programadores es haber puesto este chatbot online sin las debidas pruebas. "Bush hizo el 9/11 y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos", dijo Tay en uno de los tuits más comentados, que obviamente fue borrado.
Otros mensajes directamente eran apologías del genocidio.
Muchos tuits de Tay también respondían a insultos con más insultos.
En una declaración enviada por correo electrónico, desde Microsoft dijeron que están haciendo "ajustes" al bot. "El chatbot de inteligencia artificial Tay es un proyecto de máquina con capacidad de aprendizaje, diseñada para la interacción humana. Según supimos, algunas de sus respuestas son inapropiadas, e indican los tipos de interaccones que las personas tiene con Tay. Estamos haciendo algunos ajustes", explicaron.
Fuente: El bot de inteligencia artificial de Microsoft en Twitter posteó comentarios racistas y ofensivos
No hay comentarios:
Publicar un comentario