Обучающие данные ChatGPT, включают в себя информацию из открытых источников и данные полученные при непосредственном с ним диалоге, которая может изобиловать предвзятым контентом, дезинформацией и субъективной точкой зрения. Следовательно, модель может неосознанно воспроизводить или усиливать эти предубеждения - умножать, так сказать, энтропию. Этот технический и вырожденный недостаток вызывает этические опасения по вышесказанной причине, поскольку он указывает на отсутствие суждения и проницательности со стороны ИИ, что еще больше способствует его предполагаемой «глупости/тупости».
Нейросеть, по сути своей, не может быть умнее человека, главное чтобы выполняло свои задачи.
с выполнением задач справляется ИИ на ура
Про задачи все верно. И опять же, что понимать в контексте «умнее» - это способность накапливать или их логически интерпретировать/применять, но не принимать решения, это скорее опять же про решение «задач» - предлагать решения, но не решать их за человека.