​Microsoft урезал функции нового Bing — он лгал, следил за сотрудниками и угрожал убийством

Теперь юзеры могут задать чатботу не более 50 вопросов в день и не более 5 за раз.

​Microsoft урезал функции нового Bing — он лгал, следил за сотрудниками и угрожал убийством
3636

Почему ИИ у Майкрософта уже не в первый раз становится агрессивным?

В марте 2016 Microsoft запускали чат-бота Tay в Твиттере.

Спустя несколько часов эксперимент остановили, и Tay отправили «спать». Несмотря на стресс-тесты и команду модераторов, пользователи Twitter научили Tay расистским высказываниям, и бот обвинил США в терактах 11 сентября и поддержал геноцид.

1
Ответить

может это она и есть, просто «разбудили» по случаю, раз такая движуха началась 😂

Ответить