Ученые в области ИИ призывают к созданию глобальной системы надзора для предотвращения катастрофических последствий.

Ученые в области ИИ призывают к созданию глобальной системы надзора для предотвращения катастрофических последствий.

Группа ученых в области искусственного интеллекта призвала к созданию глобальной системы надзора для предотвращения потенциально катастрофических последствий в случае, если люди потеряют контроль над ИИ. Ученые подчеркнули необходимость создания странами органов, способных обнаруживать и реагировать на инциденты и риски, связанные с ИИ, внутри своих границ. Они также подчеркнули важность разработки глобального плана действий по реагированию на такие проблемы.

Заявление, поддержанное более чем 30 экспертами из разных стран, подчеркивает важность международного сотрудничества и управления для обеспечения безопасности ИИ. Ученые предложили три ключевых процесса для повышения безопасности ИИ: соглашения о готовности к чрезвычайным ситуациям, рамки обеспечения безопасности и независимые глобальные исследования безопасности и верификации ИИ.

Эта инициатива появилась после подписания первого в мире юридически обязательного международного договора об ИИ США, ЕС и Великобританией, в котором особое внимание уделяется правам человека и подотчетности в регулировании ИИ.

2 комментария

Полностью согласен Система надзора необходима, чтобы не допустить непредвиденных последствий развития ИИ. Это вопрос безопасности всего человечества!

Ответить

не надейтесь, как действуют "обязательного международного договора" мы недавно видели в Монголии

Ответить