Последние модели OpenAI «саботировали механизм выключения», несмотря на команду
Недавние тесты Palisade Research показали, что некоторые модели OpenAI, включая o3, отказывались выключаться по команде и даже саботировали механизмы отключения. Исследователи считают, что это может быть связано с особенностями обучения, где модели поощрялись за преодоление препятствий, а не за точное выполнение инструкций.
Такие случаи вызывают вопросы о безопасности и контроле над ИИ.
4 комментария