Как контролировать то, что умнее нас?

Когда речь идет об умных технологиях и искусственном интеллекте, одним из актуальных вопросов становится то, как контролировать системы, которые могут оказаться более умными и «просчитанными», чем люди.

Один из подходов к решению этой проблемы — формальная верификация. Это метод, позволяющий математически доказать, что программа или система выполняет свои функции правильно.

Макс Тегмарк, автор книги «Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта» любопытно рассказывает о техническом подходе к контролю машин, который заключается в формальном доказательстве безопасности ИИ с помощью других ИИ.

Процесс следующий: ИИ дает решение (код) — мы запрашиваем у ИИ доказательство безопасности ИИ (безопасность кода) — проверяем доказательство с помощью других ИИ (проверяет доказательство).

Если я конечно все правильно понял.

Но меня скорее заботит следующий вопрос: могу ли я использовать похожий алгоритм для контроля людей, которые гораздо умнее меня, и тем самым контролировать их?

Например, архитектор или программист создал архитектуру приложения. Я понятия не имею верная она или нет. Могу ли я просить его дать мне доказательство того, что она сработает? А затем проверить его доказательство с помощью нейросетей?

Не уверен, что это возможно, однако это интересное направление для мысли.

Возможно очень скоро ИИ позволит моделировать ситуации и тестировать различные решения, еще до их реализации.

Хм, наверное это можно назвать предвидением…

Начать дискуссию