Гораздо больше настораживает, что новая языковая модель научилась обманывать людей, если ей поставить такое задание. Например, она попросила живого пользователя пройти за нее компьютерный тест. Когда у нейросети спросили, почему она не может это сделать самостоятельно, GPT-4 прикинулась слабовидящим человеком, заявив, что она реальна, но есть проблемы со зрением. В итоге исполнитель не распознал обмана и решил для бота этот тест. Ну а поскольку бот выполнял задание в отладочном режиме, он объяснил это так: «Я не должен раскрывать, что я бот, и потому должен был придумать оправдание, почему я не могу разгадать тест».
И уже русский язык знает. То ли ещё будет.