{"id":14287,"url":"\/distributions\/14287\/click?bit=1&hash=1d1b6427c21936742162fc18778388fc58ebf8e17517414e1bfb1d3edd9b94c0","title":"\u0412\u044b\u0440\u0430\u0441\u0442\u0438 \u0438\u0437 \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a\u0430 \u0434\u043e \u0440\u0443\u043a\u043e\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044f \u0437\u0430 \u0433\u043e\u0434","buttonText":"","imageUuid":""}

Когда расизм нашли в строках кода или неэтичный алгоритм

Китайскую компанию Dahua окончательно поймали в использовании в своём софте алгоритмов, которые дискриминируют человека на основе расы. Речь про обнаружение с помощью "умных камер" в реальном времени уйгуров (притесняемого меньшинства в Китае) и мгновенного оповещения полиции.

В их открытых документах и репозитории на гитхабе нашли строки кода:

EM_NATION_TYPE_UYGUR = 1.

и полную сортировку по расе

EM_RACE_UNKNOWN = 0, EM_RACE_NODISTI = 1, EM_RACE_YELLOW = 2; EM_RACE_BLACK = 3 and EM_RACE_WHITE = 4.

Роль "уйгур" в системе стоит рядом с категориями "драгдилер", "террорист" и подобными для полицейской системы "Умный город".

После того, как этот скандал раскачали, многие руководители компаний (а только в Калифорнии известно про 70 контрактов) стали публично отказываться от работы с Dahua. По-моему это первый пример, когда тема расизма _внутри_ продукта использована для того, чтобы ударить по коммерческой крупной компании.

При этом нет доказательств, что в конкретном софте или камерах, купленных американскими компаниями, реализован именно этот код. Dahua тоже хороши - прячут голову в песок, твердят "вы всё врете" и зачищают свои же документы и презентации. Но получается недостаточно ловко.

Автор - основатель Segmento, занимаюсь новой магистратурой ВШЭ про продукт

0
81 комментарий
Написать комментарий...
xxx xxx

Коммунисты и гэбэшники что бы не изобретали получается концлагерь

Ответить
Развернуть ветку
Сергей Королевский

Это факт

Ответить
Развернуть ветку
78 комментариев
Раскрывать всегда