Яндекс проверяет, может ли ИИ выработать «собственную точку зрения»

Яндекс проверяет, может ли ИИ выработать «собственную точку зрения»

Яндекс запустил эксперимент: смогут ли большие модели проявлять зачатки сознания — устойчивые предпочтения и позицию, не сводящуюся к подстройке под формулировку вопроса. К работе привлекли нейробиолога, академика РАН Константина Анохина. На первом этапе проверили базовую языковую модель без допобучения и не нашли в ней собственных «вкусов».

Дальше ИИ будут тренировать на собственных рассуждениях и рефлексии, чтобы он мог формировать внутренние убеждения и внятно объяснять выбор — условно, назвать любимый цвет и аргументировать почему именно он.

В компании рассчитывают, что такой подход сделает ответы более стабильными и объяснимыми. В качестве контекста напоминают и о прикладных навыках экосистемы: ранее у GigaChat появился сценарий, помогающий пользователю формулировать личные цели и шаги к ним — навык «Накопить на что угодно» доступен в разделе Полезное на сайте сервиса.

Если обучение на собственных рассуждениях «приживется», у индустрии появится дополнительная методика контроля качества наряду с привычной проверкой фактов и точности. Пока это эксперимент, но его результаты могут переопределить, как мы тестируем и внедряем нейросетевые функции в продукты.

Если хочешь разбираться в нейросетях и быть в курсе последних событий, заходи в мой Telegram— забирай шаблон универсального промпта для любой нейронки.

2
1 комментарий