#Галлюцинации

Как LLM могут бороться со своими же галлюцинациями

Галлюцинации — ахиллесова пята ИИ. Проверка достоверности “фактов” ИИ (с помощью того же поисковика) — несложная задача (учитывая, что уже сейчас ИИ может решать задачи не хуже человека, делать изобретения и ускорять научные открытия), и наконец такой способ нашелся. Разработана модель с говорящим названием “SAFE” (безопасность, Search-Augmented…

Слева: разбивка 38 тем (естественно-научные, гуманитарные, другие, социальные науки). Справа: сравнение с другими фактологическими бенчмарками. Модель LongFact охватывает большое количество тем и работает с длинными фактологическими ответами. Источник
2.7K показов
154 открытия
Иногда ChatGPT глючит 🫤 Выход есть
59 показов
72 открытия