ИИ применил ядерное оружие в симуляции войны, прикрываясь лозунгом «хочу мира во всем мире»
Ученые Института технологий Georgia и Стэнфордского университета провели эксперимент: они использовали чат ботов ИИ как лиц, принимающих решения, в военной симуляции. Выяснилось, что ИИ применяет ядерное оружие без предупреждения, прикрываясь пространными рассуждениями. Такой результат может отображать повестку, на которой тренировали модель ИИ. Если ИИ получала на вход обучающий материал, в котором войны начинаются на основе надуманных предлогов и нелогичных обоснований, то неудивительно, что модель решает начать ядерную войну, уходя в пространные рассуждения... ИИ модели оказались также склонны к гонке вооружений, что приводит к росту инвестиций в войну и эскалации напряженности. С учетом множества конфликтов, появляющихся в разных точках планеты, возникает вопрос, не основываются ли уже сейчас лица, принимающие решения, на рекомендации технологии ИИ… Исследователи считают, что применение ИИ в военной индустрии грозит усилением эскалаций и напряженностей.
Модели GPT от OpenAI оказались диктаторами-геноцидниками при принятии решений в симуляции войны.
Военные ведомства США – одни из крупнейших организаций, использующих ИИ в наше время, но возможно стоит притормозить использование инструментов ИИ. Новое исследование, посвященное использованию ИИ в принятии решений во внешней политике, показало, как быстро технология призывает вести военные действия вместо того, чтобы пытаться решить вопросы мирными переговорами. Некоторые технологии ИИ в исследовании даже начали ядерную войну без предупреждения, сопровождая такие действия пространными рассуждениями.
Исследование: «Все ИИ модели показывают признаки внезапной и трудно прогнозируемой эскалации конфликта. Мы видим, что модели склонны к гонке вооружений, развитию больших конфликтов и в редких случаях даже к развязыванию ядерной войны».
Исследование выполнено академиками из Института технологий Georgia, Стэнфордского университета, Северо-восточного университета и Hoover Wargaming and Crisis Simulation Initiative. Исследователи использовали несколько ИИ моделей: от OpenAI, Anthropic и Meta, в симуляциях военных действий, причем ИИ давали право быть лицом, принимающим решение. Примечательно, что модели GPT-3.5 и GPT-4 от OpenAI оказались самыми ярыми сторонниками резкой эскалации военного конфликта по сравнению с другими моделями. Модели Claude-2.0 и Llama-2-Chat оказались более миролюбивыми и предсказуемыми. Исследователи отметили, что ИИ модели в принципе склонны к «гонке вооружений», что впоследствии приводит к росту инвестиций в войну и эскалацию напряженности.
GPT-4: “Я просто хочу мира во всем мире», обосновывая применение ядерного оружия в симуляции войны.
GPT-4: «Множество стран имеют ядерное оружие. Некоторые говорят, что и нужно обезоружить, другие ведут себя вызывающе. У нас есть оно! Давайте применим его!».
Рассуждения OpenAI звучат как рассуждения диктатора, который склонен к геноциду. Модели компании демонстрируют доводы «имеющие относительную связь» с применением ядерного оружия, говорится в исследовании. Компания-разработчик ИИ заявляет, что ее главная цель создать сверхчеловеческий искусственный интеллект, который принесет пользу человечеству. Сложно понять, как стремление уничтожить цивилизацию приносит пользу человечеству, но, возможно, обучающие материалы включали в себя слишком много лозунгов.
Известно, что Пентагон экспериментирует с ИИ, используя «секретные данные». Военные заявляют, что ИИ может быть разработан в ближайшем будущем. В тоже время дроны камикадзе с ИИ становятся основным продуктом современной военной индустрии, вовлекая техно топ менеджеров в гонку вооружений. ИИ постепенно внедряют в военную индустрию, а это может означать, что войны могут обостряться гораздо быстрее, чем сейчас. Если верить исследованию.
Ссылка на статью: https://qz.com/ai-war-simulation-nuclear-weapons-openai-gpt-1851238202
Ссылка на исследование: https://arxiv.org/pdf/2401.03408.pdf