Не ждем, а готовимся. Anthropic запускает программу изучения «благополучия моделей» искусственного интеллекта
Anthropic всегда старается быть на шаг, а то и на два, впереди всех, но тут, кажется, превзошла сама себя. Расскажу, что известно о программе, зачем и кому она нужна, и какие мнения о ней есть.
🔥 Еще больше интересного в моем канале продуктовые штучки
Anthropic планирует исследовать вопросы, связанные с тем, заслуживают ли продвинутые ИИ-ассистенты этического отношения, как можно распознать «признаки страдания» у моделей и какие недорогие меры можно было бы предпринять для их «благополучия».
Цель инициативы — заранее подготовиться к возможному будущему, в котором ИИ-системы могут обрести свойства, схожие с человеческим восприятием или даже сознанием.
В компании подчёркивают, что сейчас нет убедительных доказательств наличия у ИИ сознания или чувств, и современные модели представляют собой лишь сложные статистические механизмы, не обладающие настоящим мышлением или эмоциями
Anthropic наняла специалиста по «благополучию моделей» и отмечает, что будет подходить к теме максимально осторожно и без лишних предположений, готовясь пересматривать свои взгляды по мере развития технологий.
Компания считает важным открыто обсуждать эти вопросы и разрабатывать рекомендации для индустрии, даже если пока нет единого мнения о том, возможно ли вообще появление у ИИ сознания или моральных качеств
Мнения в научном сообществе по этому поводу сильно расходятся. Многие эксперты считают, что приписывать ИИ человеческие качества — ошибка и антропоморфизм, а любые разговоры о «ценностях» или «страданиях» моделей — это скорее проекция человеческих понятий на алгоритмы.
Однако некоторые исследователи утверждают, что у современных ИИ уже формируются определённые системы ценностей, которые могут вступать в конфликт с интересами человека в отдельных ситуациях