Исследователи из Университета Иллинойса и Intel Labs нашли способ заставить языковые модели выдавать запрещенную информацию методом InfoFlood - когда вредоносный запрос переписывают очень сложным научным языком с кучей терминов и ссылок на несуществующие исследования.