Европейские правила искусственного интеллекта находятся на решающем этапе

Согласование Европейских правил по искусственному интеллекту находится на решающем этапе, поскольку переговорщики в настоящее время стремятся определить окончательные детали законодательства.
Согласование Европейских правил по искусственному интеллекту находится на решающем этапе, поскольку переговорщики в настоящее время стремятся определить окончательные детали законодательства.

Согласование Европейских правил по искусственному интеллекту находится на решающем этапе, поскольку переговорщики в настоящее время стремятся определить окончательные детали законодательства. Этому процессу мешает внезапный рост генеративного искусственного интеллекта, который всё больше выполняет задачи, которые ранее были возложены на людей.

Ожидается, что Закон о искусственном интеллекте Европейского союза, который был предложен в 2019 году, станет первым всесторонним законодательством в области искусственного интеллекта в мире. Это законодательство должно укрепить позицию Евросоюза, состоящего из 27 стран, в качестве мирового законодателя в области регулирования технологической промышленности.

Однако данный процесс оказался затруднительным из-за неожиданного роста систем генеративного искусственного интеллекта, которые являются основой для общедоступных сервисов искусственного интеллекта, таких как ChatGPT от OpenAI и бот Bard от Google. Крупные технологические компании считают, что регулирование является чрезмерным и тормозит инновации, в то время как европейские законодатели требуют дополнительных гарантий для передовых систем искусственного интеллекта, разрабатываемых этими компаниями.

Тем временем США, Великобритания, Китай и международные коалиции, такие как Большая семерка демократических стран, приступили к созданию барьеров для быстро развивающихся технологий, обращая внимание на экзистенциальные опасности, которые генеративный искусственный интеллект представляет для человечества, а также на риски для повседневной жизни.

Эксперты предупреждают, что возможна задержка в согласовании Закона о искусственном интеллекте до выборов в Европейский парламент следующим годом. Необходимо решить множество вопросов важных для окончательных переговоров, которые, как ожидается, состоятся на этой неделе. Даже если переговоры продлятся до поздней ночи, возможно придется приложить значительные усилия, чтобы завершить работу в следующем году.

Исходный проект, представленный Европейской комиссией в 2021 году, почти не затрагивал системы генеративного искусственного интеллекта, такие как чат-боты. Предложение классифицировать системы искусственного интеллекта по уровням риска (от минимального до неприемлемого) было задумано как законодательство о безопасности продукции.

Теперь ситуация изменилась из-за развития генеративного искусственного интеллекта, который вызвал удивление своей способностью создавать музыку, изображения и эссе, напоминающие человеческие творения. Возникли опасения, что эта технология может быть использована для массовых кибератак или создания биологического оружия.

Риски стимулировали законодателей ЕС усилить Закон об искусственном интеллекте, распространяя его действие на базовые модели. Большие языковые модели, также известные как модели Foundation, обучаются на больших объемах текстов и изображений, собранных из Интернета.

Эти модели предоставляют генеративным системам искусственного интеллекта, таким как ChatGPT, возможность создавать новое, в отличие от традиционного искусственного интеллекта, который обрабатывает данные и выполняет задачи в соответствии с заранее определенными правилами.

Произошедший в прошлом месяце скандал в OpenAI, компании, поддерживаемой Microsoft и создавшей одну из самых известных базовых моделей, GPT-4, вызвал опасения у некоторых европейских лидеров, что допущение нескольких господствующих компаний в области искусственного интеллекта может стать проблемой.

Несмотря на то, что генеральный директор Сэм Альтман был уволен и затем вновь принят на работу, некоторые члены совета директоров выразили глубокие сомнения относительно рисков безопасности, связанных с искусственным интеллектом, и ушли, указывая на возможность того, что корпоративное управление ИИ может стать жертвой внутрикорпоративной динамики.

Политики считают, что компании, такие как OpenAI, защищают свои интересы, а не общественные, и подчеркивают важность регулирования искусственного интеллекта. Франция, Германия и Италия сопротивляются государственным нормам в отношении этих систем искусственного интеллекта и призывают к саморегулированию.

Бурное обсуждение спровоцировало изменение точек зрения и было воспринято как попытка помочь местным игрокам в сфере генеративного искусственного интеллекта, таким как французский стартап Mistral AI и немецкая компания Aleph Alpha.

Целью данной инициативы является предотвращение американского доминирования в сфере искусственного интеллекта, аналогичного тому, что произошло в прошлых технических волнах, таких как облачные вычисления, электронная коммерция и социальные сети, - отметил Ник Райнерс.

Группа влиятельных ученых-компьютерщиков предупредила, что ослабление Закона об искусственном интеллекте станет "историческим провалом". Представители Mistral AI ссорились в Интернете с исследователями из некоммерческой организации, поддерживаемой Илоном Маском, которая стремится предотвратить "экзистенциальные риски" от искусственного интеллекта.

На прошлой неделе главный юрист Google Кент Уокер заявил: "Искусственный интеллект слишком важен, чтобы его не регулировать, и слишком важен, чтобы его не регулировать должным образом". Он подчеркнул, что необходимо стремиться к лучшим правилам для искусственного интеллекта, а не просто к первым правилам.

Наиболее сложной проблемой для переговорщиков ЕС стали модели Фонда, используемые для широкого спектра задач. Европейские законодатели сталкиваются с трудностями в регулировании данных моделей, поскольку это противоречит логике законодательства, основанного на оценке рисков, связанных с конкретными видами использования, заявила Иверна Макгоуэн, директор Центра демократии и технологий.

Начать дискуссию