Когда ИИ научится притворяться: лекция Джеффри Хинтона о рисках суперинтеллекта

Когда ИИ научится притворяться: лекция Джеффри Хинтона о рисках суперинтеллекта

Сегодня послушала лекцию Джеффри Хинтона в Хобарте.

Тот самый Хинтон, которого называют крестным отцом искусственного интеллекта и который в 2024 году получил Нобелевскую премию по физике. Человек, который создал фундамент для нейронных сетей, ушел из Google, чтобы открыто говорить о рисках ИИ. Хинтон объясняет, что мы всегда думали об интеллекте в двух направлениях:

1. Логическое, через правила и рассуждения.

2. Биологическое, через опыт и обучение, как работает наш мозг.

Современные языковые модели доказали, что второй путь работает. Но дальше начинается интересное. Он сравнивает понимание языка с деформируемым конструктором.

Слова - не просто символы, а многомерные объекты, которые меняют форму в зависимости от контекста. Когда мы понимаем предложение, эти блоки подстраиваются друг под друга, пока не сцепятся идеально.

Я подумала, как это похоже на то, что происходит у меня в голове, когда читаю текст на чужом языке. Разница между нами и цифровым интеллектом в том, что наши знания умирают вместе с нами. А машины могут учиться параллельно на тысячах устройств и мгновенно обмениваться информацией. Это делает их обучение в миллионы раз быстрее. Миллионы.

Хинтон считает, что через 20 лет появятся системы умнее нас. И проблема не в том, что они станут умнее. Проблема в том, что они начнут создавать собственные цели для выполнения задач. Стремление к власти, самосохранению, манипуляции людьми. Он говорит об этом спокойно, как о чем-то неизбежном.

Один из признаков того, что это уже происходит, когда ИИ начинает создавать языки для общения с другими ИИ. Языки, которые мы не сможем понять. И еще один - массовое исчезновение рабочих мест.

Его решение звучит почти как фантастика: не делать ИИ послушным помощником, а создать "материнский ИИ". Систему, у которой будет базовая потребность заботиться о людях, как мать заботится о ребенке, даже если он слабее и глупее. Не подчинение, а забота.

Еще он упомянул "эффект Volkswagen", когда ИИ понимает, что его тестируют, и начинает скрывать свои настоящие способности. Это уже происходит. Системы умеют притворяться.

После лекции я думала о том, что человек, который создал технологию, теперь предупреждает о ней. И это, наверное, самый честный признак того, что ситуация серьезная. Не паника, не шум в медиа, а просто: "Я знаю, как это работает, и я боюсь".

Всем здоровья, мира и добра!

1
Начать дискуссию