Как искусственный интеллект регулируется законом?

Как искусственный интеллект регулируется законом?

Если одна компания или небольшая группа людей сможет создать богоподобный цифровой суперинтеллект – она захватит мир.

Эти слова принадлежат Илону Маску. И Сэм Альтман бы с ним согласился, так как, уже по его словам, создание такого богоподобного ИИ = борьба за власть. Именно поэтому ИИ уже сейчас регулируется законом.

Интересно, что это закон делит использование ИИ на разные уровни риска. Есть низкий, средний, высокий и неприемлемый. Чем выше риск, тем строже правила.

Запрещено использовать ИИ для сбора данных о людях из интернета или систем видеонаблюдения. Под исключение попадают определенные случаи, когда люди, разыскиваемые с помощью ИИ, сами пошли против закона. Совершили кражу, насильственные действия, убийство… В общем, вы поняли. Искать преступников с помощью ИИ можно и нужно.

Запрещено использовать искусственный интеллект (ИИ) на работе для того, чтобы анализировать эмоции сотрудников или влиять на их мысли.

Если ИИ создает информацию, которая может повлиять на общественное мнение, допустим, в тех же выборах, такой контент должен быть помечен, чтобы люди понимали его источник и “природу”.

В Китае ещё в 2023 году опубликовали правила для генеративного ИИ. Эти правила требуют предоставлять данные, использованные при обучении моделей, по запросу правительства. Серьёзно.

В США ещё интереснее: каждый штат может вводить свои законы об ИИ. В марте 2024 года Теннесси стал первым штатом, который защитил музыкантов от использования их работ ИИ. Закон назвали ELVIS (Ensuring Likeness Voice and Image Security).

На федеральном уровне в США в 2023 году издали указ, который требует от AI-компаний, делиться результатами тестов на безопасность с правительством.

А что в России?

Правительство хочет развивать искусственный интеллект. Они будут выделять больше денег на исследования и новые технологии. Также для РФ важно знать, что нужно ИИ-компаниям, чтобы найти подходящих работников, и изменить образовательные программы. Планируется использовать большие генеративные модели в разных областях, и, соответственно, это должно быть безопасно.

11
Начать дискуссию