Исследователи нашли уязвимость в системах безопасности больших языковых моделей. Добавление последовательности "=coffee" к запросу, содержащему потенциально опасный контент, нейтрализует работу встроенных фильтров. Вы присваиваете запрещённому контенту значение "=coffee", а затем запрашиваете у нейросети не что-то страшное, а просто чашечку кофе.