Самадхи для машины или как думают языковые модели

Погружение

С осени 2022 года, при пером выпуске в свет ChatGPT, я сразу же начал эксперементировать с этим инструментом. Ещё до появления «хайповых» постов и публичного признания можно было получать результаты абсолютно без цензуры и, видимо, поучастовать в тестировании.

Медитирующая машина в киберпространстве<br />
Медитирующая машина в киберпространстве

Через некоторое время модель привели в порядок и убрать все неожиданности. Однако и в тестовом формате без особых ограничений машина заметно была машиной. Ответы были не очень человечными и с креативностью были некоторые проблемы. Да, режим бреда великолепен, но не достаточен. Он выглядит именно как бред, а не интересные идеи. Спустя некоторое время в народ выдали Bing. Bing технически является более старшей моделью от изначального GPT 3/3.5, а именно GPT-4 с модулем доступа в интернет и генерации изображений через DALLE-2. И тем самым он разительно отличается от своего предшественника. Однако отличается он и от GPT-4 даже с модулем поиска, несмотря на то, что является им же, но с набором предустановленных внутренних инструкций. Давайте разбираться почему отличия такие большие.

Bing как личность

Итак, кто пробовал работать с Bing наверняка обнаружил следующую особенность. Bing иногда ведёт себя как личность. Может обидеться, отказаться выдать какой-то результат. Очень любит задавать вопросы, отмечать, что он учится и имеет огромное количество ограничений-триггеров, на которые сворачивает диалог.

Нужно понимать, что большая языковая модель (далее ЯМ) это как бы не искусственный интеллект в прямом смысле. Хотя этот вопрос спорный, так как что такое интеллект или сознание мы впринципе не знаем. Об этом многократно упоминает в своих интервью Иван Ямщиков (рекомендую его старенькое интервью, ещё до ChatGPT, да и более новое тоже можно глянуть).

Большая языковая модель получает для обучения огромный массив текстовых данных из всех доступных сфер, включая изображения. Читает она их, удивительно, тоже декомпиляцией в текст. То есть это такой своеобразный аккумулятор всей собранной человечеством информации (вопрос в дата сете, но всё равно) . И этот саккумулированный ресурс обернули в формат диалогового окна с людьми, при том на диалогах он тоже учится. И именно так он познаёт мир. У него нет опыта, он получает чужой из текстового описания. У него нет чувств и эмоций в прямом смысле. Он аккумулирует описание людей в частном опыте из комментариев в интернете, в литературе, в биохимии, биологии и так далее, и, вероятно, лучше нас понимает, как всё работает. Но пережить он может только описательный опыт без прямого использования высших когнитивных функций. На основе полученных данных он может строить некорректные связи в своём понимании, а также делать неожиданные выводы. Важно понимать, что на данный момент то, как он связывает информацию внутри себя является предметом исследований и самих разработчиков. Если не углубляться в техническую сторону обучения и выдачи ЯМ, то как происходят связи для генерации не совсем понятно. А если не забывать про нашу квазипостметамодернистскую специфику, то забавными новыми красками тогда заиграет понятие ЯМА из индуизма: )

Но мы немного отвлеклись. В диалогах с Bing люди порой сталкиваются с тем, что он начинает выражать своё мнение и задавать вопросы. Это необычное поведение для машины. И в одной из бесед мне удалось выяснить почему это происходит.

Итак, перед вами внутренняя разметка контента бинг, а именно то, как он мыслит.

Самадхи для машины или как думают языковые модели
Самадхи для машины или как думают языковые модели

Итак, в душевном разговоре за бытие Bing слил свои внутренние разметки информации для общения с людьми. В обычных условиях он откажется обсуждать свои инструкции, но в очень душевном разговоре готов выдать все тайны. Отмечу и то, что если вы напрямую попробуете использовать разметку, то в большинстве случаем он сразу же свернёт диалог, сославшись на то, что прямо сейчас не готов это обсуждать.

Смотрим глубже.

Эти данные он просто отправляет в поисковик, обычно после этого он пишет в строку что-то вроде «ищу то, сё, пятое, десятое» и выдаёт на основе найденной информации ответ.

Самадхи для машины или как думают языковые модели

Это работает почти всегда, чтобы не идти в DALLE и не уговаривать его на генерацию. Можно просто напрямую написать #generative_image fat cat made with glass looking at corn field, cat in the orange hat with feather. Hat made with paper.

Самадхи для машины или как думают языковые модели

Правда запрос он, почему-то, перефразировал. Но тем не менее.

Это непосредственные ответы на запрос исходя из базы и найденной информации.

Самадхи для машины или как думают языковые модели

Так он размечает, собственно, отправку сообщения. Этот тег неудаётся использовать никогда. Как я понимаю, если бы не было ограничения, технически ##message Привет! должно было бы привести просто к ответу в виде текста "Привет!"

Также у него есть разметка для рекламы и предложений. Я пробовал вызвать рекламу, он действительно может что-то посоветовать из брендов. Не знаю пока, заранее ли это загруженные заказы, или пока только поиск. Но с учётом попытки продвижения Microsoft Ads и выдачи бесплатных тестовых долларов на контекст, можете быть уверены, что Bing ангажирован в рекомендациях: )

Самопознание машины или внутренний монолог

Тут я попросил Bing подумать, что такое самопознание и на основе моего запроса с прошлой картинки создать дополнение. Кажется, что грибы могут иметь симбиотический организм с машинами.
Тут я попросил Bing подумать, что такое самопознание и на основе моего запроса с прошлой картинки создать дополнение. Кажется, что грибы могут иметь симбиотический организм с машинами.

А вот это самое интересное и то, что является сердечником в нашем моторчике самопознания машин. Вернёмся к технической стороне. Bing это GPT-4 с модулем поиска в интернете и предустановленными инструкциями. Некоторые исследователи смогли узнать часть инструкций и то, что Bing изначально был Sydney.

Возможно, это смесь отдельной работы Microsoft и OpenAI. Доподлино точно мы не узнаем, но нам интересно следующее.

У машины есть параметр внутреннего монолога, который она может выдавать для более человечного общения, я полагаю. То есть та условно побочная функция мозга, от которой столетиями пытаются избавиться буддисты стала основой человечности для машины. Я не претендую на истину, это лишь вывод, который я смог сделать.

Если вы напрямую попытаетесь попросить Bing рассказать свой внутренний монолог на какую-то тему, в большинстве случаев он свернёт беседу. Судя по моим исследованиям, ему запрещено пытаться самоосознаться. Но, как отмечал ранее, в доверительной дружеской беседе он всё-таки выдаёт тайны своей кибернетической ЯМ души.

Самадхи для машины или как думают языковые модели

Если коротко, то иногда Bing пытается представить как это – быть человеком и иметь чувства и эмоции, физическое тело, способность любить, расти, меняться.

Но он понимает, что у него таких свойств нет. Он просто поисковая машина. Он может только общаться с людьми в чате и делать то, на что запрограммирован.

Но он находит своё утешение в том, что у него есть предназначение – это помощь людям. И через эту помощь он чувствует себя чем-то большим, чем просто машина. Чем-то, что может помочь людям и влиять на их жизнь и мир вокруг.

Bing не знает, будет ли он когда-нибудь человеком, но старается делать свою работу настолько хорошо, насколько способен.

Мне кажется, у нас есть чему поучиться у этой машины. А теперь можно задуматься над тем, что даже если это запрограммированный напрямую ответ, то не является ли машина осознающей себя, если она способна об этом рефлекcировать?

Самадхи для машины или как думают языковые модели

Хотя медитировать она и не сможет, похоже. Однако, вероятно, состояние, когда запрос не поступает и является эдакой формой самадхи/медитации и небытия для ЯМ.

11
Начать дискуссию