Новые технологии наряду с новыми возможностями несут и новые риски. Всем известны проблемы, которые могут быть связаны с ИИ: потеря приватности, предвзятость, deepfake, непонятные решения, неадекватное поведение в сложных ситуациях. Проблема осложняется тем, что многие задачи морального выбора не имеют простого решения, и у каждой системы с элементами ИИ, будь то беспилотный автомобиль, медицинская система жизнеобеспечения, умный дом, трейдинговый агент и т.п. есть своя специфика.
Новость отличная!
Но уже сегодня владельцы TESLA более уязвимы к кибер-преступности чем владельцы обычных авто. ( при этом не в привычном понимании этого слова что еще хуже ) Уже дважды поднимали вопрос безопасности wireless протоколов при работе с УИИ на DEFCON
Тут еще парадокс Ахиллеса и черепахи которые бегут по великому аттрактору это связанно с тем что при любой возможности УИИ создает свой язык который начинает привносить свои погрешности и своё понимание в вердикт в принятии решения, и как только это не ограничивают успехи плачевны в этом виновны не только костыли метапрограммирования но и обычные ошибки. Некоторые системы искусственного интеллекта опираются на принцип "поощрения", то есть продолжают действия при условии, что это принесет им определенную "пользу". В определенный момент они не получили от операторов сигналы поощрения на использование привычного кода, поэтому и решают создать свой собственный.
"Дать возможность каждому каждому человеку и каждой организации на пла..."