ИИ сдал японский экзамен на 970/1000: что это значит для нас

предметов из 15 на максимум и 970 баллов из 1000 для гуманитарной программы Токийского университета. Это выше, чем у Claude 4.5 Opus (938) и Gemini 3 Pro (937), и в 1,7 раза точнее среднего человека (58,1%).

Ключевые факты

  • Кто тестировал: японская компания LifePrompt ежегодно проверяет ИИ на реальных экзаменационных заданиях без доступа в интернет.
  • Результаты: GPT‑5.2 — 96,9% точности по всем предметам, идеально справилась с математикой, химией, информатикой, обществознанием.
  • Скорость: GPT‑5.2 думала 5,5 часа, Claude и Gemini — 1,7 часа. Медленнее, но точнее в 2–3 раза.
  • Слабые места: японский язык (90%), география и «грязные» визуальные данные — ИИ не чувствует нюансов.

Что это меняет

Для образования: тесты на зубрёжку теряют смысл. Важнее практика, проекты, умение формулировать задачи и проверять ИИ.

Для контента: GPT‑5.2 — идеальный аналитик и редактор, Claude/Gemini — быстрые генераторы идей. Проверяйте важное, но экономьте 90% времени.

Вывод: у нас в кармане «выпускник Токийского университета». Вопрос не «может ли ИИ», а как вы использовать его в 2026 году.

Подпишись на канал

2
Начать дискуссию