Итак, Нейросеть способна искажать информацию. Учитывайте это при создании статей, книг и других важных материалов.
Причин этому две:
1) Первая причина кроется в принципе работы: модель, лежащая в основе ChatGPT, анализирует последовательность слов и предсказывает следующее слово на её основе. Затем этот процесс повторяется до тех пор, пока не будет сформирован полный текст. В ходе этого процесса задача состоит не в том, чтобы предоставить фактически верный ответ, а в том, чтобы ответить так, как это сделал бы человек. «Таким образом, большие языковые модели обладают не глубокими знаниями о мире, а статистическим пониманием того, как должны строиться тексты и соотноситься запросы с ответами», – объясняет «Яндекс».
2) Вторая причина "галлюцинаций" заключается в том, что обучение нейросети происходит на больших объемах данных, которые не всегда содержат достоверную информацию (например, если нейросеть обучается на базе форумов, где пользователи часто выражают свои предубеждения и заблуждения).
Чё-т не очень хорошо у вас с логикой.
Задача про кружки (правильный ответ: 4)Нет, не 4. На столе стояло неопределенное количество кружек, из них только 4 - с чаем.
Задача про животных (GPT 3.5 обычно отвечает, что летят 3 животных, а GPT >4 уже понимает, что животных только 1)Нет. Всё перечисленное - животные.
и т.п.
Доведут эти ЖПТ население до цугундера.
Насколько мне известно из школьной программы, стрекозы, бабочки и все прочее - это насекомые!
Важно учитывать возможные "галлюцинации" при работе с такими моделями