OpenAI объяснила, почему искусственный интеллект «галлюцинирует»

Исследователи OpenAI опубликовали работу, где предлагают новое объяснение того, почему языковые модели так часто выдают выдуманные факты с полной уверенностью.

OpenAI объяснила, почему искусственный интеллект «галлюцинирует»

Почему нейросети галлюцинируют? Важное исследование OpenAI

OpenAI выпустили исследование на эту тему, где утверждают, что это "лечится" и доходчиво объясняют причины (спойлер – они системные) и механизмы галлюцинаций. И предлагает решение проблемы

Утверждать, то галлюцинации — это загадочный сбой в современных языковых моделях, нельзя. Мы понимаем статистические механизмы возникновения галлюцинаций…

Как искусственный интеллект придумал новую часть тела

И это не сразу заметили. Мы уже видим практические примеры внедрения ИИ в медицину. Это и новые лекарства и вакцины, и постановка диагнозов, которые пропустили врачи, и разработка персонализированного лечения. Но могут быть и негативные последствия, о которых предупреждали специалисты и которые уже почти случились. Расскажу, что произошло, и в чем…

1

OpenAI выпустил Prompting Guide по работе с GPT-4.1

🔥 Еще больше интересного в моем канале продуктовые штучки

Гайд одержит конкретные примеры и шаблон. Модель GPT-4.1 (стала доступна 14 мая) – принципиально отличается от 4.0,…

3

Если просить чат-боты отвечать кратко, они начинают больше «галлюцинировать»

Это показало недавнее исследование компании Giskard, специализирующейся на тестировании ИИ. Расскажу, почему так происходит и как можно снизить этот риск прямо сейчас.

🔥 Еще больше интересного в моем канале продуктовые штучки

2

Стартап WisdomAI предложил инновационный подход к снижению галлюцинаций искусственного интеллекта

Галлюцинации нейросетей – один из барьеров развития индустрии, особенно в тех сферах, где помощь нейросетей принесла бы значимый социальный эффект (например, здравоохранение или образование). Рынок поверил в решение WisdomAI: компания привлекла $23 млн инвестиций

🔥 Еще больше интересного в моем канале продуктовые штучки

2

Почему рассуждающие нейромодели «врут»?

Эксперты считают, что это трудности "переходного возраста", но это поправимо.

🔥 Еще больше интересного в моем канале продуктовые штучки

1

Проблема галлюцинацИИ: как избежать ошибок в юридическом анализе

Проблема галлюцинацИИ: как избежать ошибок в юридическом анализе

Представьте себе, что вы спрашиваете искусственный интеллект о конкретном судебном прецеденте или цитате из закона, а он выдаёт правдоподобный, но совершенно неверный ответ. Это явление, известное как «галлюцинации» ИИ, становится настоящей головной болью для тех, кто работает в сфере права. Давайте разберём, что это такое, почему это важно и как м…

Просто добавь… клея в пиццу или разбор странных советов от Google

Представьте: вы идете в Google за советом (что сделать при приготовлении пиццы, чтобы сыр не отслаивался), и он советует вам... добавить немого “нетоксичного клея” в соус. Такой совет опубликовали в Reddit пользователи. Разбираюсь, почему так вышло и чего ожидать дальше.

1

Как LLM могут бороться со своими же галлюцинациями

Галлюцинации — ахиллесова пята ИИ. Проверка достоверности “фактов” ИИ (с помощью того же поисковика) — несложная задача (учитывая, что уже сейчас ИИ может решать задачи не хуже человека, делать изобретения и ускорять научные открытия), и наконец такой способ нашелся. Разработана модель с говорящим названием “SAFE” (безопасность, Search-Augmented Fa…

2

Иногда ChatGPT глючит 🫤 Выход есть

Иногда ChatGPT глючит 🫤 Выход есть

Часто пользователи жалуются, что чат-бот искажает, придумывает факты и дает заведомо ложную информацию. Избежать этого мне помогает промпт, который я вставляю в конце своего запроса

1