Мой любимый зарубежный тренд: ChatGPT просят 101 раз подряд идеально воссоздать изображение без каких-либо изменений
ИИ в 2025 году кажется почти идеальным. Но стоит 100 раз подряд попросить его ничего не менять и картинка начинает разваливаться. Этот тренд наглядно объясняет, как нейросети думают, почему ошибки накапливаются и чем опасно, когда ИИ варится в собственном соку.
Если сами хотите попробовать этот тренд (или создать что-то действительно крутое) без ВПН, попробуйте SYNTX AI. По промокоду SLEZAMNEVERIT скидка 15% на любой тариф. Мне лично импонирует, что у SYNTX AI есть бот и веб версия, я выбираю более удобную в зависимости от ситуации.
Эксперимент звучит почти глупо. ChatGPT показывают фотографию женщины (или всеми любимого актёра) и просят воссоздать её точно, без каких-либо изменений. Он справляется. Затем получившееся изображение снова дают ему на вход с той же просьбой. Потом ещё раз. И ещё. Семьдесят. Восемьдесят. Сто раз подряд.
Поначалу всё выглядит нормально. Хотя кому я вру, всё выглядит плохо сразу.
К финалу эксперимента изображение вообще не похоже на оригинал. Это уже не портрет человека. Это результат того, как нейросеть много раз подряд пыталась быть идеальной — и каждый раз чуть-чуть ошибалась, в итоге выдав нам скорее картину Дали.
И здесь начинается самое интересное.
ИИ не копирует пиксели. Он вообще не умеет «копировать» в человеческом смысле. Каждый раз он интерпретирует изображение. Он заново распознаёт лицо, заново воссоздаёт пропорции, свет, текстуру кожи, детали одежды. Даже когда вы говорите «ничего не меняй», модель всё равно пересобирает сцену с нуля, опираясь на вероятности.
А теперь представьте, что интерпретацию заставляют интерпретировать снова. А потом ещё раз. И ещё. Это как игра в испорченный телефон, только вместо слов изображение, а вместо школьников математическая модель. Ошибки сначала микроскопические, почти невидимые. Но каждая следующая версия принимает предыдущую за истину. И все искажения аккуратно наслаиваются друг на друга.
В итоге модель начинает воспроизводить не реальность, а своё собственное представление о ней.
Исследователи называют этот эффект «схлопыванием модели». Звучит сухо, но по сути это момент, когда система начинает учиться у самой себя. Она перестаёт получать свежие, разнообразные данные из реального мира и замыкается в собственных результатах. Разнообразие снижается. Точность падает. Структура начинает распадаться. Всё становится более усреднённым, более плоским и всё менее похожим на живую реальность.
Это выглядит пугающе именно потому, что ИИ при этом не «ломается». Он работает корректно. Он делает именно то, для чего был создан: обобщает, интерпретирует, реконструирует. Просто без контакта с реальным миром его представление о мире начинает дрейфовать.
Самое тревожное здесь не в изображениях. Тот же процесс происходит с текстами, которые ИИ пишет, а потом читает другой ИИ. С кодом, который генерируется на основе автокода. С решениями, которые принимаются, потому что «так уже было раньше». Когда система слишком долго смотрит только на собственные отражения, она теряет связь с источником.
Этот тренд так хорошо зашёл именно потому, что он предельно нагляден. Не нужны графики, исследования и сложные термины. Вы просто видите, как идеальная просьба «ничего не менять» приводит к полному распаду формы.
Немного смешно. Немного жутко. И очень показательно.
ИИ в 2025 году кажется всемогущим. Но этот эксперимент напоминает простую истину: он не видит мир так, как мы. Он его воссоздаёт по вероятностям. И если заставить его слишком долго перерабатывать собственные интерпретации, результат неизбежно начнёт искажаться.
Пожалуй, это один из самых честных взглядов на искусственный интеллект сегодня. Не как на разум, а как на зеркало. И вопрос не в том, насколько оно умное. Вопрос в том, что именно и как долго в него отражается.