Исследование: ChatGPT не может воспроизвести человеческие суждения о нарушениях правил

Исследователи сообщают, что модели, обученные с использованием обычных методов сбора данных, судят о нарушениях правил более строго, чем люди.

Изображение создано с помощью <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fkolersky.com%2Fmj&postId=693344" rel="nofollow noreferrer noopener" target="_blank">Midjourney</a>
77

Кому лень читать, я вам сделал краткий пересказ: цензура - пидарас (даже в обучении ботов).

1
Ответить

Поэтому есть Stable Diffusion, где можно что угодно делать)

Ответить

А разве в обучении ботов не должно быть каких-то ограничений, чтоб они не учились убивать людей

Ответить