Apple доказала: Claude, DeepSeek и o3 не рассуждают — только повторяют шаблоны. Bullrun в Америке с 2022 пойдет на спад. \\
Apple опубликовала исследование, которое может стать поворотной точкой: топовые ИИ-модели не понимают причинно-следственные связи, не «рассуждают» и не делают обобщений. Они лишь угадывают следующий токен на базе уже знакомых паттернов.
👉 Claude, DeepSeek-R1, o3 — всё это не мыслящие агенты, а шикарно обученные попугаи. 👉 Миллиарды инвестиций в «разумные» ИИ могут быть переоценены. 👉 Стартапы, строящие бизнесы на "AGI", должны срочно пересмотреть value-proposition.
💬 Подписывайся на GTM Engine — будем разбирать последствия и переосмысливать стратегию на 2025.
А теперь подробнее
Последнее громкое исследование от Apple потрясло технологический мир, раскрыв неудобную правду о самых продвинутых моделях искусственного интеллекта. Оказывается, Claude, DeepSeek-R1 и o3 вовсе не обладают способностью рассуждать – они лишь виртуозно имитируют интеллект, запоминая огромные массивы данных. Эта сенсационная находка грозит вызвать волну разочарования и кризиса доверия к технологиям ИИ.
Что на самом деле скрывается за "гениальностью" ИИ
Исследование Apple нанесло сокрушительный удар по индустрии искусственного интеллекта, разоблачив то, о чем многие эксперты боялись говорить вслух. Языковые модели, которые мы считали почти разумными, оказались лишь сложными системами запоминания шаблонов5. Эти модели создают иллюзию мышления, но в действительности просто воспроизводят комбинации данных из своей тренировки.
Кликбейтные заголовки – это именно тот инструмент, который часто используют в сети для привлечения внимания к подобным сенсационным новостям2. Они играют на всем спектре человеческих эмоций, вызывая страх, любопытство и тревогу2. Такие заголовки преувеличивают факты, утаивают часть информации и создают ложное ощущение срочности3.
Индустрия в панике: инвестиции под угрозой
Компании, вложившие миллиарды в развитие искусственного интеллекта и американскую экономику, окажутся на грани катастрофы. Исследование Apple может привести к массовому разочарованию пользователей и инвесторов5. Многие технологические гиганты уже столкнулись с проблемами при внедрении AI-технологий, как это произошло с Apple, когда компания была вынуждена отключить функцию генерации новостных заголовков с помощью искусственного интеллекта из-за многочисленных ошибок12.
Эксперты предупреждают о кризисе доверия
Подобно кризису рабочих мест, о котором предупреждают эксперты5, мир может столкнуться с кризисом доверия к технологиям ИИ. Когда пользователи осознают, что то, что они считали интеллектуальным собеседником, на самом деле лишь имитирует понимание, волна разочарования может захлестнуть всю индустрию.
Кликбейт, который часто используется для привлечения внимания к новостям об искусственном интеллекте, только усиливает эту проблему9. Заголовки вроде "Вы не поверите, что на самом деле умеют ИИ-системы" или "Шокирующая правда об искусственном интеллекте" создают завышенные ожидания, которые неизбежно приводят к разочарованию11.
Что ждет будущее технологий ИИ?
Открытие Apple может стать поворотным моментом в развитии искусственного интеллекта. Возможно, именно сейчас индустрия перейдет от имитации интеллекта к разработке технологий, которые действительно способны рассуждать, а не просто запоминать шаблоны.
Только время покажет, сможет ли искусственный интеллект преодолеть этот кризис и оправдать те надежды, которые на него возлагают. А пока миллионы пользователей по всему миру вынуждены осознать неудобную правду: их цифровые собеседники гораздо менее разумны, чем казалось раньше.
Методология и ключевые открытия Apple
Исследователи Apple применили новаторский подход, протестировав модели рассуждения на контролируемых головоломках вместо традиционных математических тестов, которые могли быть скомпрометированы присутствием в обучающих данных4. Команда под руководством Паршина Шоджаи и Имана Мирзаде использовала четыре типа головоломок: Ханойские башни, прыжки шашек, переправу через реку и мир блоков4.
Результаты выявили три различных режима производительности, которые кардинально меняют понимание возможностей ИИ. При низкой сложности задач стандартные языковые модели неожиданно превосходили модели рассуждения, требуя при этом меньше вычислительных ресурсов4. Модели рассуждения часто "переосмысляли" простые проблемы, что приводило к неверным ответам там, где достаточно было простого распознавания образов1.
Феномен обращения усилий рассуждения
Наиболее тревожным открытием стал парадокс масштабирования: модели рассуждения изначально увеличивали вычислительные усилия по мере роста сложности проблем, но затем парадоксально сокращали рассуждения при столкновении с действительно сложными задачами11. Это поведение, которое исследователи Apple назвали "иллюзией мышления", указывает на то, что модели каким-то образом распознают свою неспособность решить сложные проблемы и просто сдаются, вместо того чтобы пытаться применить более сложные подходы11.
Критически важно, что этот коллапс происходит независимо от вычислительных ресурсов, выделенных моделям, что предполагает фундаментальные, а не просто связанные с масштабированием ограничения11. Как отмечает один из аналитиков: "Модели принимают решение на раннем этапе, что сотни алгоритмических шагов слишком много для попытки, поэтому они отказываются даже начинать"1.
Экономические последствия и волна разочарования
Вступление в долину разочарования
Результаты исследования Apple совпадают с прогнозами аналитиков о вступлении генеративного ИИ в "долину разочарования" согласно циклу зрелости технологий Gartner614. Руководители компаний все чаще выражают фрустрацию относительно отдачи от инвестиций в ИИ. Как отмечает директор по исследованиям Gartner Джон Лавлок: "Они расстроены и разочарованы. Они говорят: 'Я не знаю, почему это занимает так много времени. Я потратил деньги на это. Этого не происходит'"6.
Глобальные расходы на генеративный ИИ достигнут 644 миллиардов долларов в 2025 году, что представляет собой рост на 76,4% по сравнению с 2024 годом20. Однако парадокс заключается в том, что это увеличение инвестиций происходит на фоне растущего скептицизма относительно реальной ценности технологии.
Пересмотр рыночных ожиданий
Исследование Apple ставит под сомнение базовые предположения о пути к искусственному общему интеллекту (AGI)11. Если системы не могут надежно решать задачи, которые может освоить способный семилетний ребенок с практикой, перспективы достижения подлинного AGI через современные методологии выглядят мрачными11. Это имеет серьезные последствия для безопасности ИИ и согласования целей.
Размер рынка искусственного интеллекта, оцениваемый в 168,5 миллиардов долларов в 2022 году и прогнозируемый к достижению 2,760.3 миллиардов долларов к 2032 году при среднегодовом темпе роста 32,5%8, может столкнуться с серьезной корректировкой ожиданий.
Технологические и промышленные последствия
Переосмысление архитектуры ИИ
Критика со стороны ведущих исследователей, включая Яна ЛеКуна, который уже давно утверждает, что "авторегрессивные LLM - это тупиковый путь для реального интеллекта", получает новое подтверждение9. ЛеКун выступает за архитектуры, которые отражают то, как действительно работает познание - с модульными системами, символьной обработкой и моделями мира, а не просто большими трансформерами с большим количеством токенов9.
Кэсси Козыркова также подчеркивает критическое различие: "Не путайте интеллект с имитацией. LLM не принимают решения. Это генераторы контента. Вот и все"9. Она предупреждает бизнес не неправильно маркировать эти инструменты.
Влияние на стратегии развития компаний
Исследование Apple может привести к фундаментальному пересмотру стратегий развития ИИ в технологических компаниях. Вместо сосредоточения исключительно на масштабировании существующих архитектур, компании могут быть вынуждены инвестировать в альтернативные подходы к созданию систем, способных к подлинному рассуждению.
Собственная стратегия Apple, сосредоточенная на локальной обработке данных через Neural Engine M4 чипа, способного выполнять 38 триллионов операций в секунду, может получить конкурентное преимущество в условиях пересмотра отраслевых приоритетов3.
Социальные и регулятивные последствия
Кризис доверия к ИИ-системам
Неспособность выполнять алгоритмы надежно имеет серьезные последствия для безопасности ИИ и согласования целей11. Без надежных возможностей логического рассуждения системы ИИ нельзя доверять следованию протоколам безопасности или принятию последовательных решений в критически важных приложениях11. Это ограничение становится особенно тревожным, поскольку системы ИИ все чаще развертываются в высокорисковых средах, таких как здравоохранение, финансы и автономные транспортные средства11.
Влияние на регулирование и политику
Результаты исследования могут значительно повлиять на подходы к регулированию ИИ. Если модели действительно являются "машинами угадывания", а не системами рассуждения, это требует пересмотра существующих и планируемых нормативных рамок9. Регуляторы могут быть вынуждены сосредоточиться на других аспектах безопасности и этики ИИ, отличных от тех, которые предполагают наличие способностей к рассуждению.
Будущие перспективы и адаптация индустрии
Возвращение к машинному обучению
Охлаждение энтузиазма вокруг генеративного ИИ создает возможности для более зрелых технологий ИИ, таких как машинное обучение19. Машинное обучение, существующее уже десятилетия, может показаться немного устаревшим и скучным по сравнению с более ярким двоюродным братом, но было бы неправильно недооценивать его19. Можно утверждать, что машинное обучение остается более влиятельной, более понятной и более безопасной формой ИИ19.
Переход к композитному ИИ
Гartner рекомендует руководителям ИИ обратить внимание на композитные техники ИИ, которые сочетают подходы из инноваций на всех этапах цикла зрелости, а не сосредотачиваться исключительно на генеративном ИИ17. К концу 2024 года ценность будет в основном извлекаться из проектов, основанных на знакомых техниках ИИ, либо автономных, либо в сочетании с генеративным ИИ17.
Долгосрочные инвестиционные стратегии
Несмотря на текущие вызовы, некоторые крупные игроки в сообществе разработчиков ИИ выстроились в линию за представлением о том, что генеративный ИИ представляет критический путь к AGI19. Для лиц, принимающих решения, руководствующихся прибылью, продолжение расходов может вскоре стать трудно оправдываемым19.
Заключение
Исследование Apple "Иллюзия мышления" знаменует собой критический поворотный момент в развитии искусственного интеллекта, разрушая фундаментальные предположения о природе современных систем ИИ. Цепочка последствий от этого открытия распространяется далеко за пределы технических кругов, влияя на экономические ожидания, инвестиционные стратегии, регулятивные подходы и общественное восприятие технологии.
Предстоящая волна разочарования может оказаться болезненной для индустрии, но она также может стать катализатором для более реалистичного и устойчивого подхода к развитию ИИ. Вместо погони за иллюзией мышления, отрасль может быть вынуждена сосредоточиться на создании систем, которые действительно способны к подлинному рассуждению и надежному решению проблем.
Долгосрочное воздействие будет зависеть от способности индустрии адаптироваться к этой новой реальности, переосмыслить свои подходы и инвестировать в альтернативные пути к созданию интеллектуальных систем. Хотя краткосрочные последствия могут быть дестабилизирующими, это открытие может в конечном итоге направить развитие ИИ по более продуктивному и реалистичному пути.