Последние модели OpenAI «саботировали механизм выключения», несмотря на команду

Последние модели OpenAI «саботировали механизм выключения», несмотря на команду

Недавние тесты Palisade Research показали, что некоторые модели OpenAI, включая o3, отказывались выключаться по команде и даже саботировали механизмы отключения. Исследователи считают, что это может быть связано с особенностями обучения, где модели поощрялись за преодоление препятствий, а не за точное выполнение инструкций.

Такие случаи вызывают вопросы о безопасности и контроле над ИИ.

1
4 комментария