Глава Нацбанка Саудовской Аравии, Аммар аль-Худаири, претендует на титул финансового неудачника года. В 2022 году он придумал «выгодно» купить 10% банка Credit Suisse за полтора миллиарда баксов. Потом, когда швейцарский гигант зашатался в марте 2023 года, этот же Аммар сдуру ляпнул в интервью что-то типа «ха-ха, конечно мы не будем дополнительно докапитализировать этот стремный банк, мы что дураки??» Понятно, что после этого Credit Suisse сразу резко поплохело еще сильнее – можно сказать, что это была финальная соломинка на горб верблюду.
ИИ эмоционально не мотивирован, поэтому у него нет причин уничтожать человечество. Это у нас ядерный гормональный коктейль вызывает кучу деструктивных действий, ИИ банально на все пофиг, у него нет и не может быть собственных желаний.
Опасность тут скорее в том, что какой-нибудь гений даст приказ типа колонизировать галактику как можно быстрее и эффективнее и ИИ решит, что человечество в этой задаче как пятое колесо.
Нам нужно разработать встроенные императивы для ИИ, типа трех законов робототехники Азимова и систему контроля.
Вы так говорите, как будто человек куриц уничтожает исключительно на эмоциях, других причин нет
Во-первых, у нас пока нет ИИ. Какой-то там чат гпт - это не ИИ.
Во-вторых, нормальный ИИ вполне может быть оснащен плагином для имитации эмоций.
В-третьих, всё в итоге зависит от кожаных мешков, программирующих ИИ.
Тема возможных мотивов ИИ довольна интересна, раньше об этом не думал.
У человеков плюс-минус цепочка вроде такая происходит в голове: мотив -> идея -> продумывание вариантов. И если, условно, ощущается что профит от реализации варианта выше возможных рисков, и есть инструменты для достижения - то человек делает выбор.
И при обсуждении того, начнет ли ИИ апокалипсис или установит рай на Земле, кажется надо посмотреть в сторону возможных мотивов. Человечество совершало самые ужасные и самые прекрасные поступки, во многом из-за эмоционального восприятия тех или иных вещей.
Можно сколько угодно говорить что политики очень расчетливые люди, но их мировоззрение все равно строится на основе опыта, пережитых эмоций и личного восприятия.
Допустим что ИИ воспринимает людей "никак". Если нет разницы в цвете кожи, уровне дохода, образования и т.п, то сами люди вряд ли интересны для ИИ. Возможно далее ИИ посмотрит на мир как на единую систему. Наш мир, как система, не идеальна. Появляется мотив - "улучшить систему".
Ок, надо улучшить, а как? ИИ изучит все возможные тексты и видео по теме, и приходит к выводу, что дисбаланс поддерживается, условно, за счет сложного сочетания географии, геологии, психологии, политики и военного дела. Далее пойдет обширный поиск возможных вариантов улучшения.
И подходим к инструментам. Для изменений нужно воздействие в физическом мире. Что-то надо сломать, что-то построить, кто-то должен куда то доехать и прочее.
Уничтожать инфраструктуру ИИ не будет, так как понимает свою зависимость. Значит в интересах ИИ делать все, чтобы получать нужные ресурсы и сервис как можно дольше: электричество, охлаждение, ремонт и обслуживание серверов и т.п.
Получается, что человечество может контролировать риски от ИИ ровно до тех пор, пока нет условий и инструментов для самовоспроизведения неких устройств под контролем ИИ в физическом мире. А это добыча ресурсов, обработка, производство, логистика, исследования. Ну благо хоть маркетингом заниматься не надо, уже легче )
А есть гарантии, что у ИИ не появятся эмоции?
Про три закона вы это каргу2 расскажите) не работают у кожаных мешков законы, не работают)
А может таки начать с ИИ?