«Мы сталкиваемся с серьёзной проблемой цензуры»: Google ужесточила требования для исследований ИИ — Reuters Статьи редакции

Компания просит воздержаться от негативных оценок технологии.

Google в июне 2020 года ужесточила контроль над публикацией работ своих штатных ученых и попросило их писать об ИИ в «позитивном ключе», сообщило Reuters со ссылкой на внутренние документы и на сотрудников компании.

Исследователи должны проконсультироваться с юридическими, политическими и общественными отделами, прежде чем заниматься такими вопросами, как анализ выражения человеческого лица и эмоциональной окраски высказываний, классификация по признаку расы, пола и политических пристрастий.

В некоторых случаях старшие менеджеры вмешивались в проекты уже на поздних этапах и советовали выдерживать позитивный тон в готовящиеся к публикации работы. «Это не означает, что мы должны прятаться от подлинных вызовов», — заявил один из менеджеров.

Четыре штатных исследователя заявили, что Google начинает вмешиваться в важнейшие исследования потенциального вреда от технологий. «Если мы исследуем что-то, и нам не разрешается публиковать это из-за критериев, которые не соответствуют качественному рецензированию, то мы сталкиваемся с серьезной проблемой цензуры», — сказала старший научный сотрудник Маргарет Митчелл.

Исследователям также советуют убрать из работ упоминания проектов Google. Как пишет издание, компания более тщательно проверяет тексты, которые посвящены «щепетильным темам». Это, например, пристрастность сервисов Google, Китай, Иран, Израиль, Covid-19, страхование, данные геолокации, вероисповедание, беспилотные автомобили, телекоммуникации и системы персонификации контента в интернете.

0
20 комментариев
Написать комментарий...
Bender Rodriguez

— «Don't be evil!»

Ответить
Развернуть ветку
Михаил Арнаутов

они же отказались от этого слогана

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Invent Valley

Где можно узнать координаты того ... человека, который первым стал называть старые добрые нейронные сети "Искусственным" "интеллектом"?

Ответить
Развернуть ветку
Denis Bystruev

Называть стали журналисты, увидевшие результаты распознавания речи глубинными нейронными сетями, разработанными группой под руководством Джеффри Хинтона (Geoffrey Hinton) в университете Торонто в 2005–2006 годах. До этого лет 30 не могли добиться приемлемого качества, хотя ключевой метод — обратного распространения ошибки (backpropagation) — он описал в 1986 году.

https://ru.wikipedia.org/wiki/Хинтон,_Джеффри

Ответить
Развернуть ветку
BigWho

- вот книга 1995 года, очевидно, что нейронные сети уже назывались искусственным интеллектом https://www.amazon.com/Artificial-Intelligence-Approach-Stuart-Russell/dp/0131038052
- до 1986 "обратное распространение ошибки" уже кто только не описывал  (в вашем же источнике: https://en.wikipedia.org/wiki/Backpropagation написано, что Хинтон в 1986 лишь предложил *термин* "обратное распространение", только и всего)

А лет 30 не могли добиться, потому что без результатов сотен других научных исследований, обратное распространение на порядки менее эффективно. И вычислительные мощности выросли невероятно, даже сейчас на доработку/обучение 1 сети для какого-нибудь онлайн-переводчика, могут тратиться вычислительные ресурсы на десятки миллионов долларов. В 1986 это было совершенно невозможно при том уровне науки и техники...

Ответить
Развернуть ветку
Denis Bystruev

Согласен.

Можно даже и с 1956 года отсчитывать, когда состоялся Дартмутский семинар по искусственному интеллекту, где нейронные сети были одной из тем обсуждения:

https://ru.wikipedia.org/wiki/Дартмутский_семинар

У нас тоже такое было — слышал от своего научного руководителя Л. Б. Емельянова-Ярославского, занимавшегося нейронными сетями с 1950-х годов, как они тогда оптимистично считали, что до искусственного интеллекта осталось «лет 5».

Но всё это происходило в очень узком кругу. Действительно популярным термин стал именно после первого успеха с распознаванием речи. Особенно когда появились Siri и Google Now и это стало массовым.

Ответить
Развернуть ветку
new_comment

Раньше искусственным интеллектом называли вообще любой алгоритм. А "старые добрые" нейронные сети никогда в отрыве от понятия "искусственный интеллект" и не были.

Ответить
Развернуть ветку
Igor Filippov

Не знаю кто придумал, но есть хотя бы такая классическая книга. Думаю что эти дядьки поумнее тебя будут.

Ответить
Развернуть ветку
Sudos Ivan

в этой книге нейронные сети - один из 5 разделов одной из 26 глав или около 20 страниц из 1300. 

Ответить
Развернуть ветку
SocialWarrior

АИ просто звучит круто. Чистый маркетинг

Ответить
Развернуть ветку
Invent Valley

Не в этом дело. Термин "АИ", вплоть до нулевых годов - применяли исключительно для сетей фреймов, экспертных систем, компьютерной лингвистики, и прочих подобных же вещей. Его даже для шахматных программ не использовали. Исходно он "пошёл в народ" - для японской программы компьютеров "пятого поколения" (безвременно почившей).
Но именно на нейронные сети его - натянули как сову не глобус. Он там - ни к селу ни к городу.
Искусственные нейронные сети, это - подвид т.н. "систолических" вычислительных архитектур, которые приспособили для решения задач распознавания образов и анализа сцен.
Вся их работа - мультипараметрическая (n-мерная) экстраполяция, больше ничего в них нет (всё остальное - прикручено уже сверху).
Человек произносящий ИИ - не имеет профильного образования.

Ответить
Развернуть ветку
Invent Valley

"дядьки", "поумнее" ... как хорошо быть молодым ):-(

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Pavel Voronkov

Бигдата в Excel это святое, особенно когда там 1,5 млн строк при разрешенных 65к.

Ответить
Развернуть ветку
Sergei Zotov

65536 строк это для экселя до 2007 года, если что. Для формата .xlsx уже давно максимум = 1 048 576 строк. Что, конечно. никак не отменяет лулзов на тему бигдаты в экселе

Ответить
Развернуть ветку
Alexey Tykhonov

У меня одного ощущение что статья не лучшим образом переведена? Я прям напрягался перечитывал чтобы сложить фразы в понимаемое целое. Начиная с заголовка.

Ответить
Развернуть ветку
xxx xxx

Оригинал в три раза длиннее, из статьи куски ещё выкинуты.  

Ответить
Развернуть ветку
Zuko Yuppi

Это, например, пристрастность сервисов Google, Китай, Иран, Израиль, Covid-19, страхование, данные геолокации, вероисповедание, беспилотные автомобили, телекоммуникации и системы персонификации контента в интернете.

Вижу почерк Промта, в лучшие годы.

Ответить
Развернуть ветку
К Х

цензура?!
а по гендерным признакам, расе и сексуальной ориентации точно все правильно? исследование не может быть признанным без соблюдения всех норм и правил!
з.ы. исследователи каждый раз утром становились на колено? 

Ответить
Развернуть ветку
17 комментариев
Раскрывать всегда