Представьте, что вы находитесь в комнате, полной книг на языке, которого вы не понимаете. Ваше задание — отвечать на запросы, поступающие через окно. Вы не знаете, что означают символы, но, пользуясь инструкциями из книг, вы легко составляете ответы, которые снаружи кажутся правильными. Такова суть эксперимента Джона Серля “Китайская комната”.
Спасибо, гляну эксперимент. Они обучаются на миллионах текстов, выявляя паттерны и предсказывая вероятные ответы на основе данных, но не понимают смыслов, которые обрабатывают. Как бы мягко это ни звучало, но большинство людей — не очень умные. Всё, что они подают ИИ, будет влиять на конечный результат. Текст прогнан в чат GPT :) Мягко он кстати стелит :)