Проблема с ошибками ИИ, печально известными галлюцинациями, заключается в том, что из-за особенностей работы LLM, ошибки будут очень правдоподобными. Галлюцинации поэтому очень трудно обнаружить, и исследования показывают, что люди даже не пытаются, «засыпая за рулем».
Использование ИИ - это неплохо, но всегда стоит учитывать то, что он берёт информацию из какого-то источника и никто не гарантирует, что в этом источнике информация верная. Всегда стоит перепроверять то, что говорит ИИ. В сфере учёбы - для того, чтобы запомнить - нужно это выучить, прочитать в разных источниках, поискать информацию, а не просто сделать промпт. Информацию нужно обдумать и усвоить
Хоть где-то начали говорить о минусах. Я сразу говорил, что ИИ это не всегда про точность, бывает все равно, когда может выдать ошибки или не совсем тот ответ, который нужен, поэтому полностью полагаться на него не стоит. И интересно, смогут ли в будущем вообще сделать так, чтобы без ошибок
Ошибки ИИ иногда настолько убедительны, что их трудно заметить. Нужно быть не только пользователем технологий, но и их постоянным фактчекером))
Мы тут с коллегой люто упоролись, сломались миллион раз, но смогли завершить исследование целевой аудитории. Мы загрузили 21к строк диалогами бота (1 строка = 1 вопрос и 1 ответ) с пользователями и решили сделать сегментацию аудитории. Вывить боли, потребности ну и прочее. Гребаный gpt сильно галлюцинировал и контекстное окно перегружалось. Спасение нашли в Gemini. Он был максимально точен