Когда речь идет об умных технологиях и искусственном интеллекте, одним из актуальных вопросов становится то, как контролировать системы, которые могут оказаться более умными и «просчитанными», чем люди.Один из подходов к решению этой проблемы — формальная верификация. Это метод, позволяющий математически доказать, что программа или система выполняет свои функции правильно.Макс Тегмарк, автор книги «Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта» любопытно рассказывает о техническом подходе к контролю машин, который заключается в формальном доказательстве безопасности ИИ с помощью других ИИ.Процесс следующий: ИИ дает решение (код) — мы запрашиваем у ИИ доказательство безопасности ИИ (безопасность кода) — проверяем доказательство с помощью других ИИ (проверяет доказательство).Если я конечно все правильно понял.Но меня скорее заботит следующий вопрос: могу ли я использовать похожий алгоритм для контроля людей, которые гораздо умнее меня, и тем самым контролировать их?Например, архитектор или программист создал архитектуру приложения. Я понятия не имею верная она или нет. Могу ли я просить его дать мне доказательство того, что она сработает? А затем проверить его доказательство с помощью нейросетей?Не уверен, что это возможно, однако это интересное направление для мысли.Возможно очень скоро ИИ позволит моделировать ситуации и тестировать различные решения, еще до их реализации.Хм, наверное это можно назвать предвидением…#александрмазур #проИИ #чатgpt