В ЕС поддержали законопроект о регулировании ИИ — он запрещает онлайн-системы распознавания лиц в общественных местах Статьи редакции

Если его примут, он также обяжет компании маркировать контент как сгенерированный ИИ и прогнозировать риски.

Обновлено 14 июня. Европарламент одобрил законопроект о регулировании ИИ — теперь его должны обсудить с Еврокомиссией, затем документ рассмотрит Совет ЕС.
  • Два профильных комитета Европарламента — комитет по гражданским свободам и комитет по внутреннему рынку и защите прав потребителей — предварительно одобрили проект закона AI ACT. Он вводит регулирование ИИ.
  • В июне 2023 года за документ должен проголосовать Европарламент в целом, затем его обсудят с Еврокомиссией, а только после этого — Совет ЕС.

Что предлагает законопроект

  • Все основанные на ИИ системы разделят на три категории — с неприемлемыми рисками, высокими и низкими. Первые запретят, вторые должны будут соответствовать «определённым юридическим требованиям», третьи не будут регулировать. Под «неприемлемыми рисками» проект понимает в том числе использование ИИ для манипуляций и выставления «социального рейтинга».
  • В целом документ описывает правила использования систем на основе ИИ — систем распознавания лиц, генеративных нейросетей, беспилотных автомобилей и других.
  • Компании, которые используют ИИ-инструменты, должны будут оценивать их потенциальные риски с точки зрения «здоровья, безопасности, фундаментальных прав, окружающей среды, демократии и верховенства закона».
  • Проект запрещает использование систем распознавания лиц при помощи биометрии и других систем «удалённой биометрической идентификации» в режиме реального времени в общественных местах. Кроме них, запрещено будет и «распознавание эмоций» — полицией, работодателями и в учебных заведениях.
  • Также под запретом использование ИИ для разделения людей по категориям: по полу, расе, этнической принадлежности, гражданству, вероисповеданию и политической позиции. Отдельно запрещён сбор с камер и из соцсетей биометрических данных, которые планируется использовать для создания базы распознавания лиц.
  • Полиции хотят запретить использовать системы предиктивной аналитики — для прогнозирования правонарушений, когда ИИ «предсказывает», что человек может совершить преступление.
  • К «высокорисковым системам» проект относит беспилотные автомобили, медицинские приборы с применением ИИ и другие, сбой в которых может привести к угрозе здоровья и другим серьёзным последствиям.
  • Законопроект не запрещает использование генеративного ИИ — речь о GPT, основанных на нейросети чат-ботах и других моделях. Но есть определённые требования о «прозрачности». Контент придётся отмечать плашкой, что его сгенерировал ИИ, а создателям нужно раскрывать список того, какая защищённая авторским правом информация использовалась для обучения.
  • За нарушение компаниям может грозить штраф на сумму до €30 млн, или 6% от годовой выручки.
0
129 комментариев
Написать комментарий...
Слегка Придурковатый

Просвещённая Европа изволит тормозить прогресс. Как жаль, что сейчас не те времена, когда можно сжечь Жан... Сэма Альтмана, например.

Ответить
Развернуть ветку
fyp

Ну да, лучше как у нас. Когда любой твой заход и выход из подъезда известен. И все это можно за 5000 купить

Ответить
Развернуть ветку
47 комментариев
Светлана

езжайте в Китай, там "прогресс" налицо.

Ответить
Развернуть ветку
4 комментария
Нет

По вашему, сажать людей - это прогресс?

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
8 комментариев
Михаил Тимофеев

И по защите граждан от прогресса, к сожалению.

Ответить
Развернуть ветку
1 комментарий
Марина Крылова

наши не дочешутся в итоге...

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
1 комментарий
Dee

Только не "защите прав граждан" а "бюрократии" и "регулированию". Права граждан там нарушаются именно под этим углом.

Ответить
Развернуть ветку
Sergei Fedostsev

Но нейронка не ИИ

Ответить
Развернуть ветку
Вадим Д.

Так ИИ пока вообще не существует 🤷🏼‍♂️ Но «пипл хавает», сэр.

Ответить
Развернуть ветку
3 комментария
Нет

Нейронка - это основа ИИ, так что формально это ИИ.

Ответить
Развернуть ветку
Rex Mundy

Нейронка - наиболее распространенный пример ИИ. Просто ИИ в реальной жизни имеет другое определение, чем из книжек и фильмов

Ответить
Развернуть ветку
Киприан Лейн

У вас просто неправильные представления об ИИ

Ответить
Развернуть ветку
2 комментария
Михаил Иванович

В Европе вообще интересно устроено. Телефонны спам, например, отсутствует как класс.
Так что, всё-таки между «регулирование» и «закручивание гаек» есть разница

Ответить
Развернуть ветку
AeternaMens

Присутствует, но очень-очень мало.

Ответить
Развернуть ветку
Alex Melnikoff

так и у нас мог бы отсутствовать,нужно просто оператором разрешить отказаться от нейтральности и рубить звонки, которые проходят массово, или из сети с другой адресацией и т.д.
несколько лет назад было много смс спама. после того, как операторам разрешили это зарубить и перевести всех клиентов на прямой контракт с оплатой от 60копеек, а не одной копейки, рассылки куда-то делись)

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Максим Горький

как будто уже нету ? :)

Ответить
Развернуть ветку
7 комментариев
Domorost

Все любят часто писать о том, как Яндекс хорошо ищет лица на картинках, забывая про то, что Гугл умел это куда лучше давным-давно, просто одни соблюдают законы, другие - нет.
Вот и интересно, что теперь сделает наш монополист, ведь европейцем быть очень хочется...

Ответить
Развернуть ветку
Андрей Деревянко

Что он должен сделать? Соблюдать законы ЕС на территории РФ?

Ответить
Развернуть ветку
1 комментарий
Светлана

Ну хоть что то ввели против видео наблюдения.

Ответить
Развернуть ветку
Леонид Калмыков

но тут речь идет не про видео наблюдение ,а про ИИ

Ответить
Развернуть ветку
1 комментарий
Kate

Так.. в Европе принимаю ограничительные меры.. у нас когда начнут???

Ответить
Развернуть ветку
تقي

У нас свободная страна, никаких ограничений же.

Ответить
Развернуть ветку
1 комментарий
Слегка Придурковатый

У нас такое невозможно, ты чо. Не веришь мне, спроси у РКН!

Ответить
Развернуть ветку
Oleg Sukhoveev

А у нас наоборот, ищут как бы отследить человека

Ответить
Развернуть ветку
Игорь Рустин

Это что, как бы прогресс в обратную сторону?

Ответить
Развернуть ветку
Вадим Д.

Ну вот, дожили. Ещё и разгуляться не успели, а всё туда же — запретить, расстрелять (-:

Ответить
Развернуть ветку
AeternaMens

Расстрелять это у вас на родине.

Ответить
Развернуть ветку
1 комментарий
Андрей Грачев

ну так пока не разошлись во всю,надо на корне рубить

Ответить
Развернуть ветку
Александр Жариков

Они там "Особое мнение" посмотрели?

Ответить
Развернуть ветку
Kristina Baturina

А что это они начали бояться возможностей развития ИИ?

Ответить
Развернуть ветку
Невероятный Блондин

Просто оставлю это здесь. Для истории.

Ответить
Развернуть ветку
Dm

Старая новость же. Это уже пару лет как.
Бестолковая и недопиленная система значит. Ибо деньги бюджетные на это потрачены, но в метро охранники с провинциальными рылами до сих пор предпринимают попытки прооверить рюкзак. Ну они же знать должны. Или может система по факту не работает? 😏
Хотя была информация, что какие -то камеры использовались для задержания "несогласных". Что тоже вызывает вопросы.
А тем, кто считает, что Европа торопится - они делают всё, чтобы развитие прогресса не шло в разрез с интересами граждан.
А в России создали авторитарную систему и годами еще и допиливают её.

Ответить
Развернуть ветку
3 комментария
تقي

Это десятого года статья?

Ответить
Развернуть ветку
1 комментарий
Тесла-канадец

Почему для истории. Это настоящее и будущее России. Иначе как мобилизацию проводить. По квартирам ходить?

Ответить
Развернуть ветку
Игорь Рейтер

Проблема систем распознавания лиц не в их существовании, а в государственной монополии (и контролем) над ними.

Если бы в России их обслуживало несколько частных компаний, и российское государство не могло бы по щелчку пальца вмешиваться в их работу, то всё было бы нормально

Ответить
Развернуть ветку
Сергей Леопольдович

Где-то кто-то очень громко рассмеялся, сказал Д.. ять и вышел к девчонкам из парной )))

Ответить
Развернуть ветку
Олег

Его там накрыли хотя бы?

Ответить
Развернуть ветку
Александр Не Курю

Д шо эт, в загнивающей такие несправедливые законы обсуждают🤣
Вот другое дело в Китае )

Ответить
Развернуть ветку
Олег

Решили все же пересмотреть Терминатора.

Ответить
Развернуть ветку
Caomhan Macha
Полиции хотят запретить использовать системы предиктивной аналитики — для прогнозирования правонарушений, когда ИИ «предсказывает», что человек может совершить преступление.

13/52 - это не то, что ИИ, это калькулятор посчитать может. Что тут предсказывать-то?

Ответить
Развернуть ветку
Дмитрий //

"Контент придётся отмечать плашкой, что его сгенерировал ИИ"
И каким образом они узнают, что это ии сгенерировал картинку или текст написал?

Ответить
Развернуть ветку
Ware Wow

а главное какая разница, кто создаст фейк.
но не надо искать логики там, где ее быть не может.

Ответить
Развернуть ветку
Ware Wow

Бюрократы быстро всё обосрут.

Ответить
Развернуть ветку
Евгения Маленкова

Надо было это изначально как-то регулировать

Ответить
Развернуть ветку
Юрий Хабаров

"Полиции хотят запретить использовать системы предиктивной аналитики — для прогнозирования правонарушений, когда ИИ «предсказывает», что человек может совершить преступление."-тут может быть столько ошибок ,и хорошо что запрещают это

Ответить
Развернуть ветку
Святослав Драгунов

Технологии, а тем более информационные, ограничить и отменить практически невозможно. Вон, кто-то даже книги сжигал, но это не отменяет распространенность знаний.

Информация, это отдельный вид, в духе грибка. А технологии её хранения и распространения — аванпосты. Даже школьник может позволить себе пару вебок, выставленных на улице, и мини-нейросеть на кластера рассбери или игровом ПК.

Замедлить прогресс может и получится. Но ненадолго. Да и у Большого Брата давно есть все необходимые технологии

Ответить
Развернуть ветку
Pivozavr

Нормальные законы. В каком месте они тормозят развитие ИИ? То что права человека на частную жизнь защищают? Обязывают уведомлять о рисках и данных для обучения?

Ну можно пойти по дорожке Китая.. Хотели бы жить при социальном рейтинге? Чтобы каждый чих партия отслеживала и правящая элита использовала большие данные в целях подавления оппозиции?

Меня иногда поражают комментарии техно-романтиков, которые только и ждут чтобы поскорее слиться с Эльбрусом в единый организм.

Ответить
Развернуть ветку
Melissa Mata

Дожили. Фантастические фильмы, которые я смотрела в детстве, практически реализованы. Пока что на уровне закона, запрещающего "предсказывать преступления". Но что-то мне подсказывает, что недолго ему быть таковым...

Ответить
Развернуть ветку
Светлана Елисеева
Ответить
Развернуть ветку
126 комментариев
Раскрывать всегда