
Затем Tay узнала про Гитлера. Например, на вопрос, атеист ли известный комик Рики Джервэйс, она ответила: «Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма».
В одном из твитов чат-бот проговорился об участии США в подготовке терактов 11 сентября, дал оценку действующему президенту Обаме и кандидату в президенты: «Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда».

В результате сотрудники Microsoft удалили почти все твиты искусственного интеллекта своего детища и оставили прощание, в котором бот якобы отправляется «спать».

В компании не стали делать официальных заявлений по поводу судьбы проекта, однако пользователи сети считают, что причиной «заморозки» мог стать именно слишком правдивые ответы чат-бота, названные "расистскими". Между тем, они как и отражают реальные настроения в обществе.
Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным. После появления новостей о изменении ответов Tay комментаторы в особенности "самой толерантной национальности" стали выражать опасения как по поводу будущего искусственного интеллекта, так и касательно убеждений современной молодежи.