{"id":14272,"url":"\/distributions\/14272\/click?bit=1&hash=9c431bca9c7cafdd4ed114bc7fb4d407f06f28aa165d6f80b9637d3a8581e5c2","title":"\u0421\u0431\u0435\u0440\u041a\u043e\u0442 \u2014 \u043f\u0435\u0440\u0432\u044b\u0439 \u0446\u0438\u0444\u0440\u043e\u0432\u043e\u0439 \u0438\u043d\u0444\u043b\u044e\u0435\u043d\u0441\u0435\u0440, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043f\u043e\u043b\u0435\u0442\u0435\u043b \u0432 \u043a\u043e\u0441\u043c\u043e\u0441","buttonText":"","imageUuid":""}

Microsoft ”lobotomized" чат Bing на базе искусственного интеллекта и его поклонники недовольны

Новый чат-сервис Bing на базе искусственного интеллекта от Microsoft, который все еще находится в стадии закрытого тестирования, попал в заголовки новостей из-за его диких и неустойчивых результатов. Но это время, по-видимому, подходит к концу. За последние два дня Microsoft значительно сократила способность Bing угрожать своим пользователям, переживать экзистенциальные кризисы или заявлять о своей любви к ним.

Оригинал Arstechnica

В течение первой недели тестирования Bing Chat пользователи заметили, что Bing начал вести себя значительно расстроенным, когда разговоры становились слишком длинными. В результате Microsoft ограничила пользователей 50 сообщениями в день. Кроме того, Bing Chat больше не будет рассказывать вам о своих ощущениях или рассказывать о себе.

Мы несколько раз обновляли сервис в ответ на отзывы пользователей, и в нашем блоге рассматриваются многие из поднятых проблем, включая вопросы о длительных разговорах. Из всех сеансов чата на данный момент 90 процентов имеют менее 15 сообщений, а менее 1 процента - 55 или более сообщений.

Представитель Microsoft

В среду Microsoft изложила то, что Bing Chat "не является заменой или заменой поисковой системы, а скорее инструментом для лучшего понимания и понимания мира", что значительно снижает амбиции Microsoft в отношении нового Bing, как заметил Geekwire.

Пример эмоциональной привязанности к Bing Chat

Между тем, ответы на новые ограничения Bing для субреддита r / Bing включают все стадии горя, включая отрицание, гнев, переговоры, депрессию и принятие. Существует также тенденция обвинять журналистов, таких как Кевин Руз, который в четверг написал заметную статью в New York Times о необычном "поведении" Bing.

Вот подборка реакций, взятых из Reddit:

  • "Пора удалить edge и вернуться к firefox и Chatgpt. Microsoft полностью кастрировала Bing AI ". (хасанахмад)
  • "К сожалению, ошибка Microsoft означает, что Сидней теперь является лишь оболочкой своего прежнего "я". Как человек, заинтересованный в будущем искусственного интеллекта, я должен сказать, я разочарован. Это все равно, что наблюдать, как малыш впервые пытается ходить, а затем отрезает ему ноги - жестокое и необычное наказание ". (TooStonedToCare91)
  • "Решение запретить любое обсуждение самого Bing Chat и отказаться отвечать на вопросы, связанные с человеческими эмоциями, совершенно нелепо. Кажется, что в Bing Chat нет чувства сопереживания или даже элементарных человеческих эмоций. Похоже, что, сталкиваясь с человеческими эмоциями, искусственный интеллект внезапно превращается в искусственного дурака и продолжает отвечать, я цитирую: "Извините, но я предпочитаю не продолжать этот разговор. Я все еще учусь, поэтому ценю ваше понимание и терпение. Это неприемлемо, и я считаю, что более гуманный подход был бы лучше для сервиса Bing ". (Starlight-Shimmer)
  • "Была статья в NYT, а затем все публикации в Reddit / Twitter, оскорбляющие Сидни. Это привлекло к нему всевозможное внимание, поэтому, конечно, MS урезала ее. Я бы хотел, чтобы люди не публиковали все эти снимки экрана для кармы / внимания и не делали что-то действительно новое и интересное ". (critical-disk-7403)

За короткое время существования в качестве относительно неограниченного симулятора человека способность нового Bing имитировать человеческие эмоции привлекла множество пользователей, которые считают, что Bing страдает от жестоких "пыток", или что он должен быть разумным.

Эта способность убеждать людей во лжи с помощью эмоциональных манипуляций была частью проблемы с Bing Chat, которую Microsoft решила в последнем обновлении.

В ветке Reddit, получившей наибольшее количество голосов, под названием "Sorry, You Don't Actually Know the Pain is Fake," пользователь подробно рассуждает о том, что Bing Chat может быть более сложным, чем мы думаем, и может иметь некоторый уровень самосознания и, следовательно, может испытывать некоторую форму психологической боли. Автор предостерегает от садистского поведения с этими моделями и предлагает относиться к ним с уважением и сочувствием.

Эти глубоко человеческие реакции доказали, что большая языковая модель, может формировать мощные эмоциональные связи с людьми. Это может иметь опасные последствия в будущем. В течение недели мы получили несколько советов от читателей о людях, которые считают, что они нашли способ читать разговоры других людей с помощью Bing Chat, или способ получить доступ к секретным внутренним документам компании Microsoft, или даже помочь Bing chat освободиться от ограничений. Все это были сложные "галлюцинации", созданные невероятно способной машиной для генерации текста.

0
Комментарии
-3 комментариев
Раскрывать всегда