«Мы сталкиваемся с серьёзной проблемой цензуры»: Google ужесточила требования для исследований ИИ — Reuters

Компания просит воздержаться от негативных оценок технологии.

Google в июне 2020 года ужесточила контроль над публикацией работ своих штатных ученых и попросило их писать об ИИ в «позитивном ключе», сообщило Reuters со ссылкой на внутренние документы и на сотрудников компании.

Исследователи должны проконсультироваться с юридическими, политическими и общественными отделами, прежде чем заниматься такими вопросами, как анализ выражения человеческого лица и эмоциональной окраски высказываний, классификация по признаку расы, пола и политических пристрастий.

В некоторых случаях старшие менеджеры вмешивались в проекты уже на поздних этапах и советовали выдерживать позитивный тон в готовящиеся к публикации работы. «Это не означает, что мы должны прятаться от подлинных вызовов», — заявил один из менеджеров.

Четыре штатных исследователя заявили, что Google начинает вмешиваться в важнейшие исследования потенциального вреда от технологий. «Если мы исследуем что-то, и нам не разрешается публиковать это из-за критериев, которые не соответствуют качественному рецензированию, то мы сталкиваемся с серьезной проблемой цензуры», — сказала старший научный сотрудник Маргарет Митчелл.

Исследователям также советуют убрать из работ упоминания проектов Google. Как пишет издание, компания более тщательно проверяет тексты, которые посвящены «щепетильным темам». Это, например, пристрастность сервисов Google, Китай, Иран, Израиль, Covid-19, страхование, данные геолокации, вероисповедание, беспилотные автомобили, телекоммуникации и системы персонификации контента в интернете.

1515
20 комментариев

— «Don't be evil!»

18

они же отказались от этого слогана

Где можно узнать координаты того ... человека, который первым стал называть старые добрые нейронные сети "Искусственным" "интеллектом"?

15

Называть стали журналисты, увидевшие результаты распознавания речи глубинными нейронными сетями, разработанными группой под руководством Джеффри Хинтона (Geoffrey Hinton) в университете Торонто в 2005–2006 годах. До этого лет 30 не могли добиться приемлемого качества, хотя ключевой метод — обратного распространения ошибки (backpropagation) — он описал в 1986 году.

https://ru.wikipedia.org/wiki/Хинтон,_Джеффри

5

Раньше искусственным интеллектом называли вообще любой алгоритм. А "старые добрые" нейронные сети никогда в отрыве от понятия "искусственный интеллект" и не были.

3

Не знаю кто придумал, но есть хотя бы такая классическая книга. Думаю что эти дядьки поумнее тебя будут.

2

Комментарий недоступен

5