Я думаю, что большинство исследователей искусственного интеллекта предполагают, что человеческие суждения о данных и метках предвзяты, но этот результат говорит о чем-то худшем.
Эти модели даже не воспроизводят уже предвзятые человеческие суждения, потому что данные, на которых они обучаются, имеют изъян: люди по-разному обозначали бы особенности изображений и текста, если бы знали, что эти особенности будут использоваться для суждения.
Это имеет огромное значение для систем машинного обучения в человеческих процессах
не нужно воспринимать нейросети как аналог человеческого сознания, это далеко не так, и уж точно у ИИ нет никакого интеллекта или осознанности, это просто набор скриптов только и всего, их работа может показаться иногда разумной, но это всего лишь китайская комната, там нет никого кто что то думает или что то осознает
но пока очень сложно их так не воспринимать, все равно многие им приписывают человеческие качества :"думает", "умеет", это все очеловечивание, по-другому пока невозможно, как мне кажется
Кому лень читать, я вам сделал краткий пересказ: цензура - пидарас (даже в обучении ботов).
Поэтому есть Stable Diffusion, где можно что угодно делать)
А разве в обучении ботов не должно быть каких-то ограничений, чтоб они не учились убивать людей
Это падение точности может иметь серьезные последствия в реальном мире. Например, если описательная модель используется для принятия решений о том, может ли человек совершить повторное преступление, выводы исследователей показывают, что она может выносить более строгие суждения, чем человек, что может привести к более высоким суммам залога или более длительным уголовным приговорам.
А что, судьи уже используют ИИ для вынесения приговора?.. Ничоси ))
судьи вряд ли, а вот адвокаты вполне себе, хотя я в этом не вижу ничего предосудительного. Что касается вообще юриспруденции я думаю что эта отрасль должна все же, оставаться прерогативой только людей, т.е. ИИ тут не место как ни крути