Исследователи OpenAI опубликовали работу, где предлагают новое объяснение того, почему языковые модели так часто выдают выдуманные факты с полной уверенностью.
Исследователи OpenAI опубликовали работу, где предлагают новое объяснение того, почему языковые модели так часто выдают выдуманные факты с полной уверенностью.
OpenAI выпустили исследование на эту тему, где утверждают, что это "лечится" и доходчиво объясняют причины (спойлер – они системные) и механизмы галлюцинаций. И предлагает решение проблемы
Утверждать, то галлюцинации — это загадочный сбой в современных языковых моделях, нельзя. Мы понимаем статистические механизмы возникновения галлюцинаций…
И это не сразу заметили. Мы уже видим практические примеры внедрения ИИ в медицину. Это и новые лекарства и вакцины, и постановка диагнозов, которые пропустили врачи, и разработка персонализированного лечения. Но могут быть и негативные последствия, о которых предупреждали специалисты и которые уже почти случились. Расскажу, что произошло, и в чем…
🔥 Еще больше интересного в моем канале продуктовые штучки
Гайд одержит конкретные примеры и шаблон. Модель GPT-4.1 (стала доступна 14 мая) – принципиально отличается от 4.0,…
Это показало недавнее исследование компании Giskard, специализирующейся на тестировании ИИ. Расскажу, почему так происходит и как можно снизить этот риск прямо сейчас.
🔥 Еще больше интересного в моем канале продуктовые штучки
Галлюцинации нейросетей – один из барьеров развития индустрии, особенно в тех сферах, где помощь нейросетей принесла бы значимый социальный эффект (например, здравоохранение или образование). Рынок поверил в решение WisdomAI: компания привлекла $23 млн инвестиций
🔥 Еще больше интересного в моем канале продуктовые штучки
Эксперты считают, что это трудности "переходного возраста", но это поправимо.
🔥 Еще больше интересного в моем канале продуктовые штучки
Представьте себе, что вы спрашиваете искусственный интеллект о конкретном судебном прецеденте или цитате из закона, а он выдаёт правдоподобный, но совершенно неверный ответ. Это явление, известное как «галлюцинации» ИИ, становится настоящей головной болью для тех, кто работает в сфере права. Давайте разберём, что это такое, почему это важно и как м…
Представьте: вы идете в Google за советом (что сделать при приготовлении пиццы, чтобы сыр не отслаивался), и он советует вам... добавить немого “нетоксичного клея” в соус. Такой совет опубликовали в Reddit пользователи. Разбираюсь, почему так вышло и чего ожидать дальше.
Галлюцинации — ахиллесова пята ИИ. Проверка достоверности “фактов” ИИ (с помощью того же поисковика) — несложная задача (учитывая, что уже сейчас ИИ может решать задачи не хуже человека, делать изобретения и ускорять научные открытия), и наконец такой способ нашелся. Разработана модель с говорящим названием “SAFE” (безопасность, Search-Augmented Fa…
Часто пользователи жалуются, что чат-бот искажает, придумывает факты и дает заведомо ложную информацию. Избежать этого мне помогает промпт, который я вставляю в конце своего запроса