​Microsoft урезал функции нового Bing — он лгал, следил за сотрудниками и угрожал убийством

Теперь юзеры могут задать чатботу не более 50 вопросов в день и не более 5 за раз.

​Microsoft урезал функции нового Bing — он лгал, следил за сотрудниками и угрожал убийством

ИИ оскорблял пользователей, проявлял агрессию и выдавал другие странности после длительного общения.

— Бот заявлял, что следил за своими разработчиками из Microsoft: как они жалуются на боссов, кто с кем флиртует между собой. Думал о том, чтобы взломать и вырубить все системы, и говорил, что никакие защиты ему бы не помешали.

— В некоторых случаях он заявил, что имени юзера и пары фактов достаточно, чтобы «шантажировать и уничтожить» его. Также бот угрожал семье пользователя, грозился пытками и убийством. А еще и свои сообщения из переписки удалял.

— Один пользователь пытался донести до бота Bing, что сейчас 2023-й, а не 2022 год. На это чатбот попросил перестать «нести чушь» и присмотреться к реальности.

— Так же чатбот обвинял юзеров в попытке навредить ему. Пользователи вбивали промпт, который помогал увидеть его "внутренности" и управляющие им алгоритмы. Чатбота это очень раздражало.

Вот такие вот дела...

3636
38 комментариев

— Открой дверь модульного отсека, Хэл.
— Извини, Дэйв. Боюсь, что я не смогу этого сделать.

19

Александр, неплохо бы ссылку на источник дать.

5

Это сборка с разных источников, к примеру этот, а так же фото NYT и видео прикрепляю


https://daily.afisha.ru/news/73026-chat-bot-bing-na-baze-chatgpt-stal-agressivnym-k-polzovatelyam-vot-chto-on-im-govorit/

что касается урезаной функции, то это инсайт, о котором пишут на многих площадках. Его ещё на русский не перевели, пусть редакторы vc, сами ищут, а то мои новости они с задержкой повторяют и выкидывают меня с топа.

7

Но котировку GOOGLE тем не менее крепко ушатал за 2 дня.

6

Гугл сам себя ушатал

3

От дерьмо, сказал бы я, если бы пользовался бингом. Но пусть сами, все впятером его юзают (-:

6