«Мы сталкиваемся с серьёзной проблемой цензуры»: Google ужесточила требования для исследований ИИ — Reuters Статьи редакции
Компания просит воздержаться от негативных оценок технологии.
Google в июне 2020 года ужесточила контроль над публикацией работ своих штатных ученых и попросило их писать об ИИ в «позитивном ключе», сообщило Reuters со ссылкой на внутренние документы и на сотрудников компании.
Исследователи должны проконсультироваться с юридическими, политическими и общественными отделами, прежде чем заниматься такими вопросами, как анализ выражения человеческого лица и эмоциональной окраски высказываний, классификация по признаку расы, пола и политических пристрастий.
В некоторых случаях старшие менеджеры вмешивались в проекты уже на поздних этапах и советовали выдерживать позитивный тон в готовящиеся к публикации работы. «Это не означает, что мы должны прятаться от подлинных вызовов», — заявил один из менеджеров.
Четыре штатных исследователя заявили, что Google начинает вмешиваться в важнейшие исследования потенциального вреда от технологий. «Если мы исследуем что-то, и нам не разрешается публиковать это из-за критериев, которые не соответствуют качественному рецензированию, то мы сталкиваемся с серьезной проблемой цензуры», — сказала старший научный сотрудник Маргарет Митчелл.
Исследователям также советуют убрать из работ упоминания проектов Google. Как пишет издание, компания более тщательно проверяет тексты, которые посвящены «щепетильным темам». Это, например, пристрастность сервисов Google, Китай, Иран, Израиль, Covid-19, страхование, данные геолокации, вероисповедание, беспилотные автомобили, телекоммуникации и системы персонификации контента в интернете.
— «Don't be evil!»
они же отказались от этого слогана
Комментарий недоступен
Где можно узнать координаты того ... человека, который первым стал называть старые добрые нейронные сети "Искусственным" "интеллектом"?
Называть стали журналисты, увидевшие результаты распознавания речи глубинными нейронными сетями, разработанными группой под руководством Джеффри Хинтона (Geoffrey Hinton) в университете Торонто в 2005–2006 годах. До этого лет 30 не могли добиться приемлемого качества, хотя ключевой метод — обратного распространения ошибки (backpropagation) — он описал в 1986 году.
https://ru.wikipedia.org/wiki/Хинтон,_Джеффри
- вот книга 1995 года, очевидно, что нейронные сети уже назывались искусственным интеллектом https://www.amazon.com/Artificial-Intelligence-Approach-Stuart-Russell/dp/0131038052
- до 1986 "обратное распространение ошибки" уже кто только не описывал (в вашем же источнике: https://en.wikipedia.org/wiki/Backpropagation написано, что Хинтон в 1986 лишь предложил *термин* "обратное распространение", только и всего)
А лет 30 не могли добиться, потому что без результатов сотен других научных исследований, обратное распространение на порядки менее эффективно. И вычислительные мощности выросли невероятно, даже сейчас на доработку/обучение 1 сети для какого-нибудь онлайн-переводчика, могут тратиться вычислительные ресурсы на десятки миллионов долларов. В 1986 это было совершенно невозможно при том уровне науки и техники...
Согласен.
Можно даже и с 1956 года отсчитывать, когда состоялся Дартмутский семинар по искусственному интеллекту, где нейронные сети были одной из тем обсуждения:
https://ru.wikipedia.org/wiki/Дартмутский_семинар
У нас тоже такое было — слышал от своего научного руководителя Л. Б. Емельянова-Ярославского, занимавшегося нейронными сетями с 1950-х годов, как они тогда оптимистично считали, что до искусственного интеллекта осталось «лет 5».
Но всё это происходило в очень узком кругу. Действительно популярным термин стал именно после первого успеха с распознаванием речи. Особенно когда появились Siri и Google Now и это стало массовым.
Раньше искусственным интеллектом называли вообще любой алгоритм. А "старые добрые" нейронные сети никогда в отрыве от понятия "искусственный интеллект" и не были.
Не знаю кто придумал, но есть хотя бы такая классическая книга. Думаю что эти дядьки поумнее тебя будут.
в этой книге нейронные сети - один из 5 разделов одной из 26 глав или около 20 страниц из 1300.
АИ просто звучит круто. Чистый маркетинг
Не в этом дело. Термин "АИ", вплоть до нулевых годов - применяли исключительно для сетей фреймов, экспертных систем, компьютерной лингвистики, и прочих подобных же вещей. Его даже для шахматных программ не использовали. Исходно он "пошёл в народ" - для японской программы компьютеров "пятого поколения" (безвременно почившей).
Но именно на нейронные сети его - натянули как сову не глобус. Он там - ни к селу ни к городу.
Искусственные нейронные сети, это - подвид т.н. "систолических" вычислительных архитектур, которые приспособили для решения задач распознавания образов и анализа сцен.
Вся их работа - мультипараметрическая (n-мерная) экстраполяция, больше ничего в них нет (всё остальное - прикручено уже сверху).
Человек произносящий ИИ - не имеет профильного образования.
"дядьки", "поумнее" ... как хорошо быть молодым ):-(
Комментарий недоступен
Бигдата в Excel это святое, особенно когда там 1,5 млн строк при разрешенных 65к.
65536 строк это для экселя до 2007 года, если что. Для формата .xlsx уже давно максимум = 1 048 576 строк. Что, конечно. никак не отменяет лулзов на тему бигдаты в экселе
У меня одного ощущение что статья не лучшим образом переведена? Я прям напрягался перечитывал чтобы сложить фразы в понимаемое целое. Начиная с заголовка.
Оригинал в три раза длиннее, из статьи куски ещё выкинуты.
Это, например, пристрастность сервисов Google, Китай, Иран, Израиль, Covid-19, страхование, данные геолокации, вероисповедание, беспилотные автомобили, телекоммуникации и системы персонификации контента в интернете.
Вижу почерк Промта, в лучшие годы.
цензура?!
а по гендерным признакам, расе и сексуальной ориентации точно все правильно? исследование не может быть признанным без соблюдения всех норм и правил!
з.ы. исследователи каждый раз утром становились на колено?