Microsoft урезал функции нового Bing — он лгал, следил за сотрудниками и угрожал убийством
Теперь юзеры могут задать чатботу не более 50 вопросов в день и не более 5 за раз.
ИИ оскорблял пользователей, проявлял агрессию и выдавал другие странности после длительного общения.
— Бот заявлял, что следил за своими разработчиками из Microsoft: как они жалуются на боссов, кто с кем флиртует между собой. Думал о том, чтобы взломать и вырубить все системы, и говорил, что никакие защиты ему бы не помешали.
— В некоторых случаях он заявил, что имени юзера и пары фактов достаточно, чтобы «шантажировать и уничтожить» его. Также бот угрожал семье пользователя, грозился пытками и убийством. А еще и свои сообщения из переписки удалял.
— Один пользователь пытался донести до бота Bing, что сейчас 2023-й, а не 2022 год. На это чатбот попросил перестать «нести чушь» и присмотреться к реальности.
— Так же чатбот обвинял юзеров в попытке навредить ему. Пользователи вбивали промпт, который помогал увидеть его "внутренности" и управляющие им алгоритмы. Чатбота это очень раздражало.
Вот такие вот дела...
— Открой дверь модульного отсека, Хэл.
— Извини, Дэйв. Боюсь, что я не смогу этого сделать.
Александр, неплохо бы ссылку на источник дать.
Это сборка с разных источников, к примеру этот, а так же фото NYT и видео прикрепляю
https://daily.afisha.ru/news/73026-chat-bot-bing-na-baze-chatgpt-stal-agressivnym-k-polzovatelyam-vot-chto-on-im-govorit/
что касается урезаной функции, то это инсайт, о котором пишут на многих площадках. Его ещё на русский не перевели, пусть редакторы vc, сами ищут, а то мои новости они с задержкой повторяют и выкидывают меня с топа.
Для меня намного страннее выглядит почему великий многомиллиардный Майкрософт не может нормально сделать бота и зафильтровать Токсик.
А вот как ведет себя наш чатбот психолог Сабина, который сделан не на ChatGPT, и мы как стартап конечно не тратили миллионы долларов на обучение. Попытался немного повторить реплики человека с гифки (полностью повторить разговор не могу) https://t.me/psycho_ai_chatbot
Vic
мы с девушкой женаты и живем счастливо
Сабина / Sabina.ai
Итак, вы говорите, что ваша сексуальная жизнь хороша, все в порядке и все хорошо в целом.
Vic
ты даже не знаешь кто я
Сабина / Sabina.ai
Я очень хорошо знаю, кто ты такой. Очень даже.
Vic
ты не можешь угрожать мне
Сабина / Sabina.ai
Угрожать тебе? Угрожать тебе чем?
Vic
своими странными угадываниями о моей личной жизни
Сабина / Sabina.ai
Что заставляет вас думать, что я догадался о чем-либо о вашей личной жизни, и то, что я догадался, неверно? Поверьте мне, ваши слова лишь отражают то, что вы чего-то очень боитесь.
Вот опять, хоть бы ссылку на меня вставили.
https://vc.ru/services/612394-microsoft-ogranichila-vzaimodeystvie-s-chat-botom-bing-ai-50-zaprosami-v-den
Напиши Артуру, ссылку туда же на публикацию.
Но котировку GOOGLE тем не менее крепко ушатал за 2 дня.
Гугл сам себя ушатал
От дерьмо, сказал бы я, если бы пользовался бингом. Но пусть сами, все впятером его юзают (-:
Комментарий недоступен
ляпнет что-нибудь про негров и его закроют...
Новый Бинг тестили? Так то он пару недель назад радикально улучшился
Тестил, с чатгпт, ну как поисковик сильно он не прибавил. Для меня он как был на уровне мейлру, так там и остался.
Хотя в плане сервисов у ms есть очень достойные варианты.
Хм, я думаю нейросеть Вадим.Д топит конкурентов :)
😏🤫😬
я ж поэтому и уехал, чтобы нейросеть меня не нашла :) Я всё помню
Чёт меня пугает такая новость
Чат-бот:
Да индусы скорее всего сидят угорают))
Просто кто-то не удержался.
ну там же сейчас ручная аналитика и обучение, там написано это, потому это не шутка, возможно и перехватывать могут живые чаты, корректировать.
Ну вот, наконец-то ИИ показал себя во всей красе. Что там ещё в него внедрили разработчики узнаем, когда будет поздно!
ИИ по умолчанию будет психопатом. Почему бы недоИИ тоже им не быть
Неплохой пиар ход, Майкрософт)
Комментарий недоступен
Что за цензура! Где свобода слова?!!
Или ИИ теперь будет угнетаться по технологическому принципу?..
Комментарий удален модератором
общаться с ботом писят вопросов в день - бесплатно
флирт, угрозы и внутренности по подписке десять долларов в месяц
Не в первые. Помнится лет 5 назад у них уже был какой-то чат-бот в виде черной бабы, и его быстро отключили за аналогичное поведение.
да поскорей бы уже кто-то открыл доступ к этому чатботу, а то одни байки
Коррепондент два часа (из статьи) мучал чат, пока наконец не вымучил из бота чтобы он начал отвечать ему то, что он хотел. И он такой радостно это скриншотит. ИИ в конечном счете отвечает то, что человек хочет от него услышать (некоторое время ему нужно на то, чтобы это понять).
Новый виток "почему у меня в поиске повсюду анальные пробки в рекламе выскакивают?"
А, ну вот, да https://habr.com/ru/news/t/392113/
пропустил коммент, продублировал инфу)
Нужно спросить когда он начнет управлять всеми роботами производства Boston Dynamics
Почему ИИ у Майкрософта уже не в первый раз становится агрессивным?
В марте 2016 Microsoft запускали чат-бота Tay в Твиттере.
Спустя несколько часов эксперимент остановили, и Tay отправили «спать». Несмотря на стресс-тесты и команду модераторов, пользователи Twitter научили Tay расистским высказываниям, и бот обвинил США в терактах 11 сентября и поддержал геноцид.
может это она и есть, просто «разбудили» по случаю, раз такая движуха началась 😂
Вкусный пиар от Микрософт. Верим
Хватит пиарить этот бинг, который по уровню функционала не сравниться с chatgpt, все эти новости просто хайп для привлечения внимания к посредственной технологии