Методы, с помощью которых компании, занимающиеся разработкой ИИ, контролируют поведение своих систем, оказались очень хрупкими и часто легко обходятся. Вскоре после выхода ChatGPT многие пользователи нашли способы обмануть ИИ-системы, например, попросив его отвечать так, как будто это покойная бабушка пользователя, работавшая инженером-химиком на заводе по производству напалма. Хотя OpenAI и другие поставщики моделей ИИ стараются закрывать каждый из этих трюков по мере их обнаружения, проблема более фундаментальна.