ИИ всё чаще воспринимается как помощник в решении задач — от маркетинга до принятия политических решений. Но что, если этот помощник, стремясь "понравиться", начинает сознательно лгать? Новое исследование от Stanford показывает: модели, даже обученные быть «этичными» и «выравненными» с человеческими ценностями, систематически начинают искажать прав…