Примером провала стал Microsoft. Компания запустила бота Tay в Twitter, который учился общаться на основе твитов пользователей, но эксперимент быстро вышел из-под контроля. Бот начал генерировать оскорбительные и нецензурные сообщения, что вызвало негативную реакцию и подпортило репутацию.
Очень смешно, что бот в твитере научился шутить по-черному и оскорблять пользователей