Не ждем, а готовимся. Anthropic запускает программу изучения «благополучия моделей» искусственного интеллекта

Anthropic всегда старается быть на шаг, а то и на два, впереди всех, но тут, кажется, превзошла сама себя. Расскажу, что известно о программе, зачем и кому она нужна, и какие мнения о ней есть.

🔥 Еще больше интересного в моем канале продуктовые штучки

Anthropic планирует исследовать вопросы, связанные с тем, заслуживают ли продвинутые ИИ-ассистенты этического отношения, как можно распознать «признаки страдания» у моделей и какие недорогие меры можно было бы предпринять для их «благополучия».

Цель инициативы — заранее подготовиться к возможному будущему, в котором ИИ-системы могут обрести свойства, схожие с человеческим восприятием или даже сознанием.

В компании подчёркивают, что сейчас нет убедительных доказательств наличия у ИИ сознания или чувств, и современные модели представляют собой лишь сложные статистические механизмы, не обладающие настоящим мышлением или эмоциями

Anthropic наняла специалиста по «благополучию моделей» и отмечает, что будет подходить к теме максимально осторожно и без лишних предположений, готовясь пересматривать свои взгляды по мере развития технологий.

Компания считает важным открыто обсуждать эти вопросы и разрабатывать рекомендации для индустрии, даже если пока нет единого мнения о том, возможно ли вообще появление у ИИ сознания или моральных качеств

Мнения в научном сообществе по этому поводу сильно расходятся. Многие эксперты считают, что приписывать ИИ человеческие качества — ошибка и антропоморфизм, а любые разговоры о «ценностях» или «страданиях» моделей — это скорее проекция человеческих понятий на алгоритмы.

Однако некоторые исследователи утверждают, что у современных ИИ уже формируются определённые системы ценностей, которые могут вступать в конфликт с интересами человека в отдельных ситуациях

Пожалуйста, поддержите меня, поставьте лайк! 🙏

4
Начать дискуссию