Когда можно будет прокатиться на такси без водителя?

Реальное применение искусственного интеллекта в медицине или на транспорте затруднено законодательными пробелами, которые требуют не просто "издания новых законов", а переосмыслением многих правовых концепций.

🚀 17 марта правительство РФ опубликовало постановление об экспериментальных правовых режимах (ЭПР), согласно которым «такси без водителя будут ездить через 20 дней на территории Иннополиса в Казани»

Так когда можно будет поехать с роботом и с ветерком по Садовому Кольцу?

Когда можно будет прокатиться на такси без водителя?

TL; DR: Нескоро.

Хочу обсудить в этой статье и предложить сообществу TenChat краткий взгляд на основные проблемы, связанные с AI (ИИ):

- Применение искусственного интеллекта на общественном и личном транспорте;

- Кто является автором произведений, созданных с использованием искусственного интеллекта?

- Что такое deep fakes с точки зрения авторского права и кто за них отвечает?

- Применение ИИ (AI) в суде и возможность вынесения им приговоров.

- Можно ли говорить в принципе сейчас о субъектности ИИ (AI)?

⚡ Почему «взгляд» будет краткий:

- это мое сугубо личное мнение по данным вопросам;

- в среднем юридическая монография по теме 200-300 страниц и по-моему тут не место для подобных лонгридов.

① Применение на транспорте

🚗 С технической реализацией проблем нет: есть много чего улучшать, но в теории машина с ИИ будет ехать по дороге, что наглядно демонстрирует тот же Яндекс в своих многочисленных опытах и видео на тему.

Мало кто знает, но в РФ есть отличный проект, когда на комбайны вешается комплекс ИИ и он прекрасно без оператора убирает поле. Проекту несколько лет, есть проблемы и есть работа над их решением. На VC о нем достаточно много материалов. Но это уже реальность.

Что мешает такси и автомобилям? Очень простая вещь: не понятно, кто должен нести ответственность в случае с ДТП. Особенно с человеческими жертвами.

В праве четко различается публичная и гражданско-правовая (частная) ответственность. Государство, считает необходимым благодаря аппарату принуждения иметь возможность самостоятельно карать тех, кто нарушает закон – это публичное право. Если лично вас обманули и не заплатили денег – вы можете потребовать их в суде и это уже частное право.

Поэтому вне зависимости от наличия или отсутствия претензий у жертвы (или родственников) по факту ДТП с травмами возбуждается именно уголовное дело (то есть публичное обвинение).

В случае с экспериментальным правовым режимом в Иннополисе уже сказано, что «каждая машина будет по факту управляться удаленным оператором, или контролироваться специалистом в салоне».

По факту – это не автономное такси без водителя.

Если же полностью автономное такси без водителя совершит наезд на пешехода, который переходит дорогу по зебре - разобраться кто виноват в рамках имеющихся законов будет невозможно.

ИИ очевидно не обладает субъектностью (по крайней мере на текущем уровне реализации). Да и вряд ли родственников устроит вариант, что ответственность за травму близкого несет робот. По идее ответственность за реализацию технологии должна нести компания оператор. Полагаю, что мы не столкнёмся с по-настоящему автономными авто до момента введения уголовной ответственности для компаний и консенсуса в обществе по этому вопросу.

② Кто является автором произведений, созданных с использованием AI?

С точки зрения юриста по интеллектуальной собственности - вопрос довольно прост. Им является человек, автор, который непосредственно использует техническое средство (программу) для создания произведения. Что это за программа – неважно.

🙈 Вопрос в целом не отличается от судов по поводу того, является ли обезьяна автором фото, которое получилось, когда она держала в руке телефон фотографа.

Нет, не является. Равно как программист из Adobe не является автором логотипа, созданного в Фотошопе дизайнером из Перми.

③ Что такое deep fakes с точки зрения права и кто за них отвечает?

«Deepfake – это переработка оригинального произведения с целью создания нового, производного произведения. Не важно, кто и каким образом перерабатывает оригинальное произведение: художник кистью на холсте, дизайнер в фотошопе или программист с помощью собственной нейронной сети. Такая переработка, за исключением ряда конкретных случаев (1274 ГК РФ или доктрина fair use на Западе), не может быть произведена без разрешения или лицензии правообладателя»

Давид Замирович

👀 Это моя цитата из интервью изданию Ipquorum и своего мнения я пока не меняю.

Поэтому смешные deep fakes могут считаться пародией и у них может быть автор. Deep fakes, наносящие вред репутации человека или использующие его фото без его согласия – будут нарушением его неимущественных прав за которые несет ответственность их автор и распространители.

А deep fakes призывающие к гражданским беспорядкам ничем не отличаются от плаката на ту же тему и последствия для их автора должны быть такими же.

④ Применение ИИ в суде и возможность вынесения им приговоров

Это более сложная история и мы тут опять же возвращаемся к вопросу о субъектности ИИ.

В целом, практика по вопросу показала, что системы машинного обучения, которые скажем так «привлекались к судебной аналитике и помощи при вынесении решений» показывали свою предвзятость.

Что неудивительно, так как статистика суровая штука и, если по факту в США афроамериканцам выносят больше приговоров чем белым, то и суждение ИИ на основе самообучения с массивом данных скорее будет не в пользу определенных расовых групп.

✍ При этом из Китая приходят новости, что к 2025 году они планируют привлекать ИИ для вынесения судебных решений. Посмотрим, как это будет реализовано на практике.

Лично мое мнение, максимум чем реально будет заниматься ИИ - это предложение по быстрому подбору оптимальных дорожных карт/решений в процессе для ежедневных судебных задач.

⑤ Можно ли в принципе сейчас говорить о субъектности ИИ?

И last but not least, самый главный вопрос, который по сути имеет значения для всех предыдущих, но очевидно не может быть решен сегодня.

Можно ли признать за ИИ собственную субъектность? На основании чего это решение может быть принято и в каких случаях?

Возможна ли уголовная ответственность искусственного интеллекта или собственный счет в банке с которого будут списываться деньги в пользу страховой компании после того как машина под управлением ИИ попадет в ДТП?

🙋 Во-первых, это маловероятно из-за устоявшегося антропоцентрического взгляда на личность и подходов к её пониманию.

Во-вторых, технически мы все-таки по крайней мере сегодня имеем дело исключительно с программой, которая обладает определенными антропоморфно-эмулирующимими возможностями (которые обычно мы относим к прерогативе человека как разумного существа).

Очевидно, что любое регулирование сначала должно четко определить, что именно мы регулирует, то есть дать определение.

Я до сих пор не видел ни одного исследования, которое бы подтверждало разумность искусственного интеллекта на текущем уровне, самостоятельное стремление к чему-либо и прочие атрибуты.

Пока имеющиеся определения и технические характеристики говорят скорее в пользу отсутствия субъектности у AI (у того, что сейчас в прессе называют AI), чем о ее наличии.

А кроме перечисленных выше вопросов есть масса других.

Например можно ли применять искусственный интеллект в медицине и до каких пределов?

Кто будет нести ответственность за халатность или неточный диагноз, вынесенный с использованием «мнения ИИ»?

А скоринговые модели при выдаче кредита и последствия для заемщика?

Расскажите, а что вы думаете об искусственном интеллекте? Применяете ли вы в своей повседневной жизни «умные» устройства и готовы ли сесть в пассажирское сиденье автомобиля под управлением робота?

Как всегда, общие вопросы пишите пожалуйста в комментариях, а частные вопросы по именно вашей ситуации можно написать мне в личные сообщения! 👋

11
4 комментария

Комментарий недоступен

Ответить

У нас вообще кто только что не подразумевает. По факту конечно все совсем не так как в фильмах и журналисты об этом не говорят просто

Ответить

Мне бы страшновато было

Ответить

Я смотрел видео смешное, там молодой человек сидел в тик-токе, а его робот-пылесос двигал стул. Подпрыгнул парень довольно высоко) Думаю, что вот это действительно страшно

Ответить