Конец галлюцинаций ИИ: как разработчики решили проблему вводящих в заблуждение ответов?

Даже самые лучшие LLM-приложения сталкиваются с одной постоянной проблемой — галлюцинациями. Эти ошибочные результаты, когда модели искусственного интеллекта генерируют ложную или вводящую в заблуждение информацию, долгое время считались неотъемлемым недостатком больших языковых моделей (LLM).

Однако революционное открытие программиста и изобретателя Майкла Кельвина Вуда опровергает это предположение и открывает путь к новой эре точного ИИ, которая может изменить наши методы работы с данными и создания приложений на базе ИИ. О причинах галлюцинаций и как их удалось побороть — читайте в нашей статье.

Насколько серьезной проблемой являются галлюцинации?

Решение проблемы галлюцинаций важно для разработчиков. Устранив галлюцинации, мы сможем обеспечить точность и надежность контента, генерируемого ИИ на основе наших процессов.

Галлюцинации не приводят к проблемам, если вы используете LLM, например, для написания романа — вы всё равно хотите получить результаты в виде образов. Но в таких областях, как медицина или юриспруденция, риски гораздо выше. Неточности могут нанести репутационный ущерб или даже спровоцировать многомиллионные судебные иски, будь то врачебная халатность или ссылка на неверную историю болезни в качестве прецедента при подаче документа секретарю суда в ходе судебного разбирательства с высокими ставками.

Понимание первопричины

Вопреки распространенному мнению, галлюцинации ИИ вызваны не столько недостаточным количеством обучающих данных, неверными предположениями модели или предвзятостью алгоритмов. Вместо этого основная проблема заключается в том, как ИИ обрабатывает и генерирует информацию на основе того, что Вуд называет «маршрутами фраз-существительных.

LLM организуют информацию вокруг фраз-существительных, и когда они встречают слова или фразы с похожими семантическими значениями, они иногда смешивают или неправильно интерпретируют их. Это приводит к тому, что модель выбирает неправильные «маршруты» при генерировании ответов, что приводит к галлюцинациям.

Приведем пример:

  • на вопрос о свойствах магния ИИ может неверно предоставить информацию о кальции, поскольку в обучающих данных эти элементы семантически схожи;
  • при языковом переводе Google Translate может перепутать значение слова «pen» (в английском это ручка как письменный инструмент и также вольер для животных), поскольку оба значения ассоциируются с одним и тем же словом.

Модель доминирования фраз-существительных

Исследования Вуда привели к разработке модели доминирования существительных фраз, которая утверждает, что нейронные сети в LLM самоорганизуются вокруг существительных фраз в процессе обучения. Эта идея очень важна для понимания того, как устранить галлюцинации.

Приведем примеры из реального мира:

  • языковой перевод: Google Translate часто неправильно интерпретирует слова с несколькими значениями, например «pen» (письменный инструмент или загон для животных) или «bark» (звук собаки или крона дерева);
  • ответы на вопросы: известно, что ChatGPT путает похожие имена, например «Альфонсо» и «Афонсо», что приводит к неверной исторической информации;
  • медицинская информация: в одном из исследований ChatGPT искажал идентификаторы PubMed в 93% случаев, а также искажал номера томов, страниц и годы публикаций на 60% и более.

Как решили проблему галлюцинаций: полностью отформатированные факты

Прорывной подход Вуда заключается в преобразовании входных данных в так называемые «полностью отформатированные факты» (FFF). Это простые, самодостаточные утверждения, которые:

  • буквально верны в своем независимом значении;
  • лишены конфликтов существительных-фраз с другими утверждениями;
  • структурированы как простые, хорошо сформированные, полные предложения.

Представляя информацию магистрантам в таком формате, Вуд продемонстрировал способность достигать 100-процентной точности в некоторых типах задач ИИ, в частности в сценариях ответа на вопросы.

Как Майкл выполняет обработку FFF?

Его метод решения проблемы неоднозначности в тексте начался с использования библиотеки Python Spacy для распознавания именованных сущностей. В конечном итоге превратился в использование LLM для преобразования отрывков текста в производные, которые устраняют как можно больше двусмысленностей, в то же время пытаясь сохранить стиль написания оригинального документа.

REST API, который предоставляет его компания, задуман как обертка вокруг GPT-4o и GPT-4o-mini. Вместо того, чтобы вызывать OpenAI через REST API, вы отправляете запрос в систему, которую построил Майкл, используя тот же синтаксис, что и для вызова OpenAI. Система преобразует ваш тест, чтобы устранить двусмысленность.

Я предполагаю, что он занимается предварительной обработкой текста в подсказках, отправленных через REST API, и, если я правильно понял то, что прочитал на его сайте, он также провел некоторое обучение тонкой настройке моделей OpenAI GPT4o.

В чём заключается отличие от существующих методов?

Современные методы, такие как Retrieval Augmented Generation (RAG), пытаются уменьшить количество галлюцинаций, предоставляя ИИ больше контекста. Однако у этого подхода есть ограничения:

  • RAG по-прежнему отправляет ИИ «фрагменты документов», которые могут содержать неоднозначную или противоречивую информацию.
  • Даже при использовании RAG у ChatGPT-3.5 Turbo было 23% галлюцинаций при ответах на вопросы о статьях Википедии.
  • Добавление дополнительного контекста иногда усиливает галлюцинации, поскольку создает больше потенциальных конфликтов между существительными и фразами.

Метод Вуда, с другой стороны, фокусируется на полном устранении конфликтов между существительными и фразами, устраняя основную причину галлюцинаций.

Реализация и результаты

Реализация этого нового подхода, получившего название RAG FF (Retrieval Augmented Generation with Formatted Facts), показала замечательные результаты. В ходе тестов с использованием сторонних наборов данных, таких как RAG Truth, исследователи смогли устранить галлюцинации как в GPT-4, так и в GPT-3.5 Turbo для заданий с ответами на вопросы

Приведем конкретный пример с устранением ошибок перевода, чтобы продемонстрировать эффективность этого подхода.

1. Оригинальный текст: «Where’s the chicken? Is it in the pen?».

Google Translate: [Неправильный перевод из-за двусмысленности слова «pen»].

2. Полностью отформатированный факт: «Where’s the chicken? Is the chicken in the animal enclosure?».

Google Translate: [Правильный перевод без двусмысленности].

Эта простая трансформация устраняет возможность галлюцинации, снимая конфликт между существительным и фразой.

Дорожная карта будущего

Вуд и его команда наметили дорожную карту для расширения возможностей ИИ без галлюцинаций:

  • разработка конвертеров для различных типов документов, включая текущие события, сообщения в социальных сетях и научные исследования;
  • создание специализированных конвертеров для таких областей, как юридические справки, медицинские исследования и финансы;
  • адаптация методики для работы с более мелкими моделями ИИ, что в перспективе приведет к созданию мобильного LLM, способного обеспечить 100-процентную точность.

Итоги: новая эра надежности ИИ

Открытие способа устранения галлюцинаций ИИ с помощью правильного форматирования входных данных представляет собой значительный скачок вперед в поисках надежного искусственного интеллекта. Приведя входные данные в соответствие с тем, как LLM на самом деле обрабатывают информацию, Вуд раскрыл потенциал для создания по-настоящему точных систем ИИ.

Поскольку эта технология продолжает развиваться и распространяться на новые области, то мы стоим на пороге новой эры надежности ИИ. Последствия для самых разных отраслей — от здравоохранения до юридических услуг — очень велики, что может привести к будущему, когда ИИ можно будет доверять как постоянному источнику точной информации и помощи.

Несмотря на то, что еще предстоит работа по расширению этой методики для охвата всех типов задач ИИ и форматов документов, фундамент для революции в точности ИИ уже заложен. По мере продвижения вперед акцент, скорее всего, будет смещен с борьбы с галлюцинациями на совершенствование и расширение возможностей этих новых точных систем ИИ, открывая захватывающие возможности для инноваций и прогресса в области искусственного интеллекта.

Статья переведена и адаптирована экспертами из команды «Лии» — платформы на базе ИИ для автоматизации первой и второй линии поддержки.

Читайте больше актуальных новостей и статей об ИИ — в моем блоге. А если хотите применить ИИ в своём бизнесе — обращайтесь к команде Лии.

1 комментарий

Если смотреть на историю развития ИИ, на то, каким он был в своих первых версиях и на то, какой он сейчас, то виден серьёзный прогресс. Наверное яркий пример, о котором знают или слышал все - ChatGPT. Как только он вышел было большой количество галлюцинаций и он частенько давал неправильные ответы, был ограниченный функционал. Сейчас галлюцинации появляются значительно реже и получается, что скоро их не будет вовсе, так же появилась возможность обрабатывать относительно большие объёмы данных и загрузку файлов. Это не может не радовать