"Галлюцинации" — создание недостоверной информации, что особенно тревожно, учитывая их широкое использование в критически важных областях, таких как право и медицина. В 2023 году был представлен новый бенчмарк HaluEval, разработанный для оценки "галлюцинаций" в LLM. Он включает более 35 000 примеров, как галлюцинированных, так и обычных, для анализа и оценки LLM. Исследование показывает, что ChatGPT выдает непроверяемую информацию в приблизительно 19.5% своих ответов по различным темам, включая язык, климат и технологии. .
🔥
топ 10 выводов, а пунктов 9(
Спасибо, что заметили и написали! Добавила в статью пункт 10. Люди по всему миру становятся более осведомлёнными о потенциальном влиянии ИИ — и более обеспокоенными. Опрос Ipsos показывает, что за последний год доля тех, кто считает, что ИИ существенно повлияет на их жизнь в ближайшие три-пять лет, увеличилась с 60% до 66%. Кроме того, 52% выражают беспокойство по поводу продуктов и услуг, основанных на ИИ, что на 13 процентных пунктов больше по сравнению с 2022 годом. В Америке данные Pew предполагают, что 52% американцев испытывают больше озабоченности, чем восторга по поводу ИИ, что увеличилось с 37% в 2022 году.