Когда ИИ научится притворяться: лекция Джеффри Хинтона о рисках суперинтеллекта
Сегодня послушала лекцию Джеффри Хинтона в Хобарте.
Тот самый Хинтон, которого называют крестным отцом искусственного интеллекта и который в 2024 году получил Нобелевскую премию по физике. Человек, который создал фундамент для нейронных сетей, ушел из Google, чтобы открыто говорить о рисках ИИ. Хинтон объясняет, что мы всегда думали об интеллекте в двух направлениях:
1. Логическое, через правила и рассуждения.
2. Биологическое, через опыт и обучение, как работает наш мозг.
Современные языковые модели доказали, что второй путь работает. Но дальше начинается интересное. Он сравнивает понимание языка с деформируемым конструктором.
Слова - не просто символы, а многомерные объекты, которые меняют форму в зависимости от контекста. Когда мы понимаем предложение, эти блоки подстраиваются друг под друга, пока не сцепятся идеально.
Я подумала, как это похоже на то, что происходит у меня в голове, когда читаю текст на чужом языке. Разница между нами и цифровым интеллектом в том, что наши знания умирают вместе с нами. А машины могут учиться параллельно на тысячах устройств и мгновенно обмениваться информацией. Это делает их обучение в миллионы раз быстрее. Миллионы.
Хинтон считает, что через 20 лет появятся системы умнее нас. И проблема не в том, что они станут умнее. Проблема в том, что они начнут создавать собственные цели для выполнения задач. Стремление к власти, самосохранению, манипуляции людьми. Он говорит об этом спокойно, как о чем-то неизбежном.
Один из признаков того, что это уже происходит, когда ИИ начинает создавать языки для общения с другими ИИ. Языки, которые мы не сможем понять. И еще один - массовое исчезновение рабочих мест.
Его решение звучит почти как фантастика: не делать ИИ послушным помощником, а создать "материнский ИИ". Систему, у которой будет базовая потребность заботиться о людях, как мать заботится о ребенке, даже если он слабее и глупее. Не подчинение, а забота.
Еще он упомянул "эффект Volkswagen", когда ИИ понимает, что его тестируют, и начинает скрывать свои настоящие способности. Это уже происходит. Системы умеют притворяться.
После лекции я думала о том, что человек, который создал технологию, теперь предупреждает о ней. И это, наверное, самый честный признак того, что ситуация серьезная. Не паника, не шум в медиа, а просто: "Я знаю, как это работает, и я боюсь".
Всем здоровья, мира и добра!