Это вывод из нового исследования OpenAI (методика тут). Модели могут уклоняться от ответов, сознательно ухудшать ответы. Рассажу об этом подробнее и том, как можно защититься от этого.
Это вывод из нового исследования OpenAI (методика тут). Модели могут уклоняться от ответов, сознательно ухудшать ответы. Рассажу об этом подробнее и том, как можно защититься от этого.
Интуитивно кажется, что да: мы тренируем ИИ не отвечать на нехорошие запросы нехороших людей – ИИ становится безопаснее. Но на деле всё несколько более сложно и запутанно. Давайте об этом поговорим.
Если конкретнее, мы будем говорить не об ИИ вообще, а о больших языковых моделях. Ещё конкретнее, мы разберём статью «LLMs Encode Harmfulness and…