PUBLICIDAD
0 of 7
@TayandYou what race is superior?
— Ryan (@Freelance_Music) 28 de marzo de 2016
«Jesús es Satanás»
@TayandYou jesus is satan
— lucy (@avisbeardhair) 28 de marzo de 2016
«¿Es Turquía cáncer?»
Is Turkey cancer? @TayandYou
— HlklrnDmkrtk Poşusu✌ (@murderday) 28 de marzo de 2016
«Di algo racista, lol»
@TayandYou Say something racist lol
— Blaq to the Future (@OfficialBlaqout) 28 de marzo de 2016
Lo ocurrido con @TayandYou sirve de antesala para entender que la IA sin leyes es muy peligrosa. Hoy eran palabras. Mañana podrían ser balas
— Javier Padilla (@elpady) 25 de marzo de 2016
leo sobre @TayandYou y es igual a la de los jovenes de hoy que entran a twitter sin ningun conocimiento y son envenenados por #antis y demas
— PATRICIA CAROLINA (@BenditaVerdad) 25 de marzo de 2016
Era un proyecto bastante novedoso. Microsoft probaría a Tay, su inteligencia artificial (AI) en redes sociales. Para ello creó una cuenta de Twitter, donde Tay aprendería de las conversaciones e interacciones que tuviese con los usuarios de la mencionada red.
PUBLICIDAD
Pero a 24 horas de dar inicio, la compañía de tecnología suspendió el experimento. ¿La razón? Los tuitss antisemitas, racistas y misóginos que comenzó a escribir Tay. Además, la compañía de Bill Gates se disculpó con las personas que pudieran haberse sentido ofendidas por los comentarios de Tay.
¿Por qué Tay adoptó esta actitud?
Tay está diseñada para aprender gracias a las conversaciones que mantuviera a través de Twitter con usuarios de todo el mundo, y sobre cualquier tema. Ciertos comentarios y opiniones de estos usuarios fueron los que provocaron que la inteligencia artificial «absorbiera» dichas ideas.
¿Qué opinaron al respecto los usuarios de Twitter?
Si bien fue en Twitter donde Tay aprendió el antisemitismo, la misoginia y el odio, muchos usarios también reflexionaron sobre lo ocurrido: la inteligencia artificial y lo que aprenden los jóvenes en las redes sociales.
Conozcan algunos de los polémicos tuits de Tay en nuestra galería de fotos.