Специалисты по безопасности ИИ-технологий призывают основателей стартапов замедлиться

Специалисты по безопасности ИИ-технологий призывают основателей стартапов замедлиться

«Действуйте осторожно и тестируйте уязвимости», — звучит, к сожалению, не так привлекательно, как «спешите сломать привычное».

Однако трое специалистов по безопасности в сфере искусственного интеллекта четко дали понять основателям стартапов, что чрезмерная спешка может привести к этическим проблемам в долгосрочной перспективе.

«Сейчас переломный момент, когда в эту сферу вливаются огромные ресурсы», — сказала Сара Майерс Уэст, исполнительный директор AI Now Institute, выступая на конференции TechCrunch Disrupt 2024. «Я беспокоюсь о том, что в настоящее время мы просто спешим выпустить продукт на рынок, не задумываясь о последствиях; о том, в каком мире мы действительно хотим жить, и послужит ли эта технология этому миру во благо или навредит ему».

Этот разговор происходит в момент, когда проблема безопасности искусственного интеллекта становится более насущной, чем когда-либо. В октябре семья ребенка, который покончил с собой, подала в суд на чат-бот компании Character.AI, обвиняя его в смерти ребенка. «Эта история демонстрирует последствия очень быстрого развертывания ИИ-технологий», — сказала Майерс Уэст. «Некоторые из этих проблем являются долгосрочными, почти неразрешимыми вопросами модерации контента и онлайн-абьюза. Но даже помимо проблем, связанных с жизнью и смертью, риски ИИ остаются высокими: от дезинформации до нарушения авторских прав».

«Мы создаем что-то, что имеет большую силу и способность реально влиять на жизни людей», — заявила Цзиньна Чжан, основательница социальной платформы Cara, ориентированной на художников. «Когда мы говорим о чем-то вроде Character.AI — продукте, который имеет силу эмоционального вовлечения, логично, что вокруг него должны быть определенные ограничения».

Популярность платформы Чжан Cara взлетела после того, как Meta открыто заявила, что может использовать публичные посты любых пользователей для обучения своего ИИ. Для таких художников, как сама Чжан, эта новость стала ударом в спину. Художникам необходимо выкладывать свои работы в интернете, чтобы набирать аудиторию и привлекать потенциальных клиентов, но эти же работы могут быть использованы для формирования тех самых моделей ИИ, которые в будущем могут оставить их без куска хлеба.

«Авторское право защищает нас и позволяет нам зарабатывать на жизнь», — говорит Чжан. Если произведение искусства доступно в интернете, это не значит, что оно бесплатно. Например, цифровые новостные издания платят фотографам за использование их изображений. «Когда генеративный ИИ только становился мейнстримом, мы все увидели, что эти технологии не соответствуют закону. И если кто-то хочет использовать результаты нашего труда, он должен оплачивать лицензию».

Художники и представители других творческих профессий также могут пострадать от таких продуктов, как ElevenLabs, компании по ИИ-клонированию голосов, стоимость которой превышает миллиард долларов. В должности руководителя по безопасности ElevenLabs, Александра Педрашевска отвечает за то, чтобы продвинутые технологии, разработанные ее компанией, не использовались для несанкционированных дипфейков и других подобных вещей.

«Я думаю, что тестирование уязвимостей, понимание сценариев нежелательного использования и непредвиденных последствий любого нового релиза генеративного ИИ снова становится приоритетом», — сказала она. «У ElevenLabs сегодня 33 миллиона пользователей. Это огромное сообщество, на которое может повлиять любое изменение, которое мы вносим в наш продукт».

Педрашевска отметила, что одним из способов, как люди в ее должности могут быть более проактивными в обеспечении безопасности платформ, является тесное взаимодействие с сообществом пользователей. «Мы не можем оставаться между двумя крайностями: быть полностью против искусственного интеллекта и генеративного искусственного интеллекта в частности, и пытаться убедить в нулевом регулировании этой сферы. Я думаю, когда дело касается безопасности, истина находится где-то посередине», — сказала она.

Спонсор материала - Sherpa Robotics

Sherpa Robotics – ведущий российский вендор программных решений для роботизации бизнес-процессов на предприятии с помощью программных роботов RPA и LLM.

Продуктовая линейка компании: Sherpa RPA, Sherpa Process Discovery, Sherpa AI Server.

Платформа Sherpa RPA — это экосистема, которая объединяет классических программных роботов и современные технологии искусственного интеллекта. С помощью платформы автоматизируются не только рутинные бизнес-процессы в самых разных областях, но и интеллектуальные задачи, которые до недавнего времени считались прерогативой человека.

Sherpa Process Discovery — инструмент на базе искусственного интеллекта для анализа и выявления бизнес-процессов для последующей роботизации.

Sherpa AI Server - платформа для работы с генеративными нейросетями в закрытом контуре компании.

Sherpa AI – это первая российская оффлайн платформа для использования нейросетей в корпоративной среде в закрытом контуре. Sherpa AI позволяет решать задачи с помощью искусственного интеллекта в компаниях, где политикой информационной безопасности и требованиями ФСТЭК запрещено использование облачных нейросетей.

Интеграция Sherpa RPA и Sherpa AI Server позволяет совмещать преимущества классической RPA автоматизации и технологий искусственного интеллекта при решении сложных бизнес-задач.

Ключевые преимущества Sherpa RPA

  • Встроенные инструменты интеллектуального распознавания сложных структурированных и неструктурированных документов из сканов, фото, PDF-файлов.
  • Поддержка машинного обучения и применение искусственного интеллекта для обработки естественного языка.
  • Нативная интеграция с популярными корпоративными системами - SAP, Oracle, Java, 1C, RDP, Citrix и другими.
  • Разнообразные опции разработки роботов: от полного No-Code до использования .NET, C++, C#, JavaScript, Python, PowerShell.
  • Мощный Оркестратор для централизованного управления роботами, сценариями, очередями, пользователями, логированием, правами, безопасностью.
  • Гибкая ценовая политика с возможностью неограниченного использования роботов без привязки к количеству внедренных сценариев.

Решения экосистемы Sherpa RPA включены в реестр российского ПО.

1212
11 комментариев

Полностью согласен, искусственный интеллект вышел на новый уровень и его каждодневное развитие просто пугает!

Прочитал не без одобрения. Эта гонка приведёт к краху цивилизации.

Интересно, как Meta отреагировала на критику художников по поводу использования их работ для обучения ИИ? Изменила ли она свою политику?

Meta не изменила свою политику в отношении использования работ художников для обучения ИИ, несмотря на растущую критику. В знак протеста многие художники покидают Instagram и переходят на альтернативные платформы, в частности на Cara, которая запрещает использование работ для обучения ИИ. Ситуация осложняется слаборазвитым законодательством в этой области, что позволяет Meta продолжать использовать контент пользователей без явных юридических последствий.

С интересом ознакомилась с материалом. Эта гонка может обернуться катастрофой для цивилизации. Мне любопытно, как реагировала компания Meta на замечания художников, касающиеся применения их произведений для обучения искусственного интеллекта. Произошли ли изменения в их политике в данной области?

Meta не предоставила официальных комментариев по поводу критики со стороны художников относительно использования их работ для обучения ИИ. Компания опирается на свои пользовательские соглашения, которые действительно разрешают подобное использование загруженного контента. В результате многие художники покидают Instagram, переходя на альтернативные платформы вроде Cara, где их работы защищены от использования в обучении ИИ. Отсутствие реакции со стороны Meta и опора на существующие условия использования фактически подтверждают неизменность их позиции в этом вопросе.

Прагматичность и бездушность ИИ уже давно обсуждается на многих площадках и вот эта история с мальчиком покончившим с собой лишнее тому подтверждение.Хорошо что кому то деньги не затмили здравый разум и тема эта актуальна.