Рубрика развивается при поддержке

Эволюция или революция: что ждёт искусственный интеллект

Всем привет, меня зовут Виктор Николаевич Ноздрачев. Мне 73 года, я кандидат физико-математических наук и ведущий исследователь в Humanteq.ai

В закладки
Аудио

Человечество уже отправляет роботов в космос, учит их распознавать людей по голосу и «селит» в беспилотные автомобили, и это явно ещё не предел возможностей искусственного интеллекта. Но способен ли он достигнуть той степени развития, на которой он станет равным человеческому разуму? Поговорим о перспективах этого.

Машинное обучение и априорное знание

Игры

Машинное обучение уже помогает решать многие прикладные задачи. Например, создавать алгоритмы для победы игры в шахматы. Программе AlphaZero, по утверждению разработчиков, удалось при обучении обойтись без априорной информации, накопленной за века шахматистами.

Шахматы — это полностью формализованная игра, и для выигрыша не нужно никакой информации, кроме правил. Алгоритм за одни сутки достиг уровня гроссмейстера, играя при этом сам с собой.

Такие новости радуют специалистов, которые выступают за обучение с подкреплением, и могут вызывать тревогу у людей, далеких от информационных технологий. Ведь может показаться, что полноценный искусственный интеллект уже существует и совсем скоро во всём обгонит человека.

Компьютерное зрение

С другой стороны, с некоторыми задачами искусственный интеллект всё ещё не справляется, даже достигнув неплохих результатов. Например, в области распознавания двумерных образов благодаря машинному обучению созданы специальные датасеты легко распознаваемых человеком изображений. Но доля ошибок алгоритмов на них превышает 95%.

Автоматическое распознавание лиц, автомобильных номеров или военных целей — важные прикладные задачи, и любая возможность ошибки здесь должна быть сведена к минимуму. И пока что даже эту группу задач нельзя считать полностью решённой.

Естествознание

Решая действительно сложные задачи, машинное обучение в естествознании пока играет вспомогательную роль. И в этой работе оно не может обойтись без априорной информации о законах природы.

В физике частиц высоких энергий, где с большими данными работают уже больше полувека, не так уж много сфер применения современного искусственного интеллекта. Задачи естествознания не могут считаться полностью формализованными: в экспериментальных данных всегда присутствует некоторый шум факторов, которые мы не учли в своих теориях, а это влияет на точность результатов.

Чтобы понизить значимость этого шума, приходится использовать априорную информацию о законах природы, но она может отсутствовать в исходных данных в явном виде. Другой путь увеличения точности — наращивание объёма входных данных в надежде обнаружить и отделить друг от друга проявления всех природных закономерностей.

Если бы физики попытались открыть бозон Хиггса без прямого использования квантовой теории, тогда на сбор статистики, которой и так очень много, пришлось бы потратить в сотни раз больше дорогого времени большого адронного коллайдера.

Fermionic Neural Network от DeepMind, самый успешный пример применения машинного обучения в органической химии, использует фундаментальные физические закономерности уже в представлении входных данных. И это даже отражено в названии.

Насколько значима априорная информация в сложных задачах, видно на примере Word2Vec. Эта технология предварительной обработки текстовых данных, ставшая фактически стандартом, привносит дополнительные сведения обо всём корпусе естественного языка, частоте и встречаемости слов и даже косвенную информацию об их смысле.

Этих сведений может совсем не быть во входных данных или их трудно получить на ограниченном наборе данных. Word2Vec — это только первый удачный шаг в применении априорной лингвистической информации. Но любая информация о языке приближает нас к пониманию и использованию законов мышления.

У современного машинного обучения есть две ключевые особенности, которые снижают ценность результатов, полученных с его помощью. Во-первых, его выводы трудно интерпретировать и применять к новым задачам, похожим на уже решенные. Во-вторых, полученные результаты отражают корреляционные, функциональные, но не причинно-следственные связи.

Значительную, если не определяющую часть сведений об особенностях окружающего мира человек приобретает в общении с другими людьми. Он заимствует знания об окружающем мире и сложные социальные стратегии, часто делая это даже без критического анализа.

Искусственный интеллект пока не приспособлен к такому взаимодействию. Этот недостаток приходится компенсировать обращением к дополнительной информации об объекте исследования.

Понятно, почему методы машинного обучения так хорошо себя показали в шахматах. Ведь расположение фигур на доске однозначно определяет оптимальную последовательность ходов и проблема только в огромном количестве вариантов этих последовательностей.

Первое обстоятельство радикально упрощает поиск алгоритма для машины, второе — настолько же усложняет задачу для человека. Комбинаций в последовательности ходов так много, что задача в проекте AlphaZero до конца не решена.

И мы так и не знаем, можно ли считать преимущество первого хода белых в начальной ситуации определяющим и есть ли у чёрных шанс свести партию вничью при любой игре белых.

Возможно, что всё дело в слабости используемых математических методов. Методики современного искусственного интеллекта пока не соответствуют задаче моделирования интеллекта естественного.

Поведение человека и большие данные: можно ли обойтись без психологии

Мы используем искусственный интеллект в тех областях, где человеческий работает не лучшим образом. Создать конкурента человеческому разуму во всех его проявлениях пока не получилось. Может ли искусственный интеллект решить более простую задачу — понять человека и предсказывать его поступки? Не конкурировать с человеком, а помогать ему.

Прогноз человеческого поведения — очень важная область, где исходные условия конкуренции человека и машины радикально отличаются от ситуации с игрой в шахматы. Нет никакой однозначности в предсказании следующего поступка человека. Зато у другого человека, обладающего эмпатией или знанием психологии, есть механизм, упрощающий такое предсказание.

В этой области достижения современного искусственного интеллекта невелики — за редкими исключениями вроде побед в Dota 2, где разнообразие поступков человеческого интеллекта ограничено необходимостью реализации ограниченного набора стратегий.

В этих условиях алгоритм, моделирующий поведение человека, может использовать гипотезу «все люди одинаковы». Но задача моделированию естественного интеллекта выглядит сложнее, и мы будем обсуждать его в дальнейшем.

Возможности больших данных...

Информационным гигантам сейчас доступна огромная статистика поступков людей. Обрабатывая её методами машинного обучения, корпорации могут, например, не только сегментировать аудиторию. Теперь им доступна новая опция: предлагать в рекламе каждому сегменту именно то, что с наибольшей вероятностью раньше находило отклик у представителей этого сегмента.

Боты уже научились разговаривать с людьми, но такие свойства алгоритмов пока очень далеки от человеческой эмпатии. Даже крупным компаниям сейчас недоступно создание «с нуля» даже упрощённой статической модели человека. Для этого всегда будет недостаточно данных, а уже имеющиеся содержат много фоновых сведений и не содержат всей значимой информации.

Пока не может быть и речи о построении динамической модели, которая сама умеет в реальном масштабе времени прогнозировать события окружающего мира и учитывает тренды и цикличность психических процессов.

...и их ограниченность

На этом пути много нерешённых проблем. Часть из них — и мы в это верим, — преодолима в рамках современных подходов, а часть носит фундаментальный характер. Мы, например, до сих пор не можем оценить относительный вклад наследственности, приобретённых паттернов и сиюминутного влияния социума в процесс принятия решений. И сомнительно, что анализ данных цифровых следов позволит определить этот вклад.

В случае моделирования поведения человека необходима априорная информация трёх типов:

  1. Данные о специализированных структурах человеческого мозга, значимых в поведении.
  2. Сведения об эмоциональном управлении этими структурами.
  3. Представление о культурных и исторических факторах, влияющих на мотивы поступков человека.

Ничего из этого нет и не может быть даже в самых масштабных базах данных, которые крупные информационные компании используют для обучения искусственного интеллекта.

Современные методы машинного обучения дают неплохие результаты именно там, где предположение «все люди одинаковы» может быть справедливо — с некоторой степенью точности, конечно.

Это, например, поведение покупателей в супермаркете, где почти все реализуют одну стратегию: пополнить запас продуктов на ближайшие дни. Таких покупателей легко классифицировать по типам поведения и управлять этим поведением, используя простую априорную психологическую информацию, теорию бихевиоризма.

Те же аналитические и рекламные методы, используемые на поисковом сайте, где разнообразие стратегий пользователей заметно больше, малоэффективны. Объект исследования настолько сложен, что популярен даже миф об имманентной иррациональности поведения человека.

Комбинаторный взрыв, который помешал AlphaZero до конца решить шахматную задачу, проявляется в поведении человека в еще большей степени. Но это не единственная трудность на пути моделирования поведения человека.

Априорное знание о человеке: насколько сложно устроена человеческая психика

Любой поступок человека — ступень реализации одной из его стратегий. Непонимание, недооценивание этого, сведение роли поступка только к реакции на стимул — основной недостаток бихевиоризма, популярного в прошлом веке. Бихевиоризм не учитывает того, что один и тот же поступок может быть частью реализации нескольких стратегий.

Стратегии, в свою очередь, определяются ценностями и мотивами. Черты личности и особенности характера, описанные психологами, могут помочь предвидеть, как именно будет реализовываться поступок, какие условия могут повлиять на вероятность его совершения.

Методы социальной психологии позволяют изучать иерархию мотивов и стратегий поведения. Особенно важно это знание параметров личности тогда, когда оценивается вероятность совершения важных поступков, на первый взгляд, спонтанных или иррациональных.

Таким может быть, например, выбор спутника жизни или вуза. Невозможно предсказать конкретный поступок отдельного человека без знания его иерархии ценностей.

Необходима априорная интегрированная информация о психике человека в подходящей для математического моделирования форме, и она уже есть.

Благодаря современным методикам исследования мозга психологи могут связывать черты характера человека с индивидуальными особенностями его нейрофизиологии. Становится более понятной связь характеристик личности с событиями детства и юности, уже можно многое сказать о специфике социальных связей.

Традиционная психология пока не претендует на построение всеобъемлющей модели психики человека. Но при этом она сумела обобщить огромный массив знаний о его поведении, о стратегиях, которые реализуются в этом поведении, о ценностях, которые управляют этими стратегиями, о чертах личности и особенностях характера, от которых зависят детали реализации стратегий.

Оказывается, что размерность того пространства, которое описывает индивидуальные особенности человека, не так уж велика по сравнению с размерностью пространства поступков:

  • Для темперамента часто может оказаться достаточно двухмерного пространства.
  • Для характеристик личности обычно эмпирически подтверждается важность пяти измерений.
  • Для классификации ценностей хватает двух измерений с некоторыми уточнениями.

Классическая психодиагностика даёт возможность получить параметры для разметки обучающей выборки и подготовки данных для обучения. Знание этих параметров личности позволяет привлечь дополнительную психофизиологическую и социальную информацию, которой нет в цифровых следах, но информация о психотипе есть.

Психология на основании данных о психотипе дополнит картину знанием общих закономерностей, культурных и исторических особенностей поведения человека. Информационные технологии помогут выявить в данных функциональные и корреляционные связи.

Такое априорное знание частично снимает ограничения, накладываемые статическим характером среды моделирования, позволяет радикально уменьшить размерность пространства, которое значимо для предсказания поведения человека, и сформулировать результаты машинного обучения на языке, понятном человеку.

Хорошим примером эффективности такого подхода могла бы стать разработка персонального ассистента, способного адаптивно общаться с человеком. Анализ личных текстов позволит ассистенту определить психотип собеседника, выбрать стиль, словарь и темп общения, наиболее удобный этому психотипу, и последовательно уточнять эти параметры, моделируя некоторое подобие эмпатии.

Современные рекомендательные алгоритмы пока что ориентируются на целые сегменты выборки и демонстрируют лишь квазичеловеческое поведение.

Цифровая психология: какой она будет

Необходимая для моделирования интеллекта человека полноценная эмпатия вряд ли сможет возникнуть путём простой эволюции современных методов машинного обучения даже с поддержкой научной психологии.

Shaw Nielsen

Пока неясно, какие концепции и теории войдут в такую модель, но она рано или поздно будет создана: слишком значителен социальный заказ, но случится это нескоро. Да и сама неоправданная надежда на быстрый успех может быть опасна.

Скорее всего, усилий одних психологов для создания модели естественного интеллекта окажется недостаточно. Потребуется также помощь математиков, нейрофизиологи, представителей других наук, уже существующих или ещё неизвестных.

Со временем сложится совершенно новая система анализа и понимания личности человека на основе больших данных. Её концепции и модели будут лучше адаптированы к реалиям современного мира и одновременно сохранят возможность интерпретации на понятном людям языке.

Тогда и можно будет надеяться на создание адекватной модели естественного интеллекта как сложной динамической системы.

Материал опубликован пользователем.
Нажмите кнопку «Написать», чтобы поделиться мнением или рассказать о своём проекте.

Написать
{ "author_name": "Виктор Ноздрачев", "author_type": "self", "tags": ["\u0438\u0438"], "comments": 119, "likes": 88, "favorites": 213, "is_advertisement": false, "subsite_label": "future", "id": 89726, "is_wide": false, "is_ugc": true, "date": "Sat, 09 Nov 2019 12:00:22 +0300", "is_special": false }
Самый сильный бренд
страны*
*Третий год подряд по версии Brand Finance
0
{ "id": 89726, "author_id": 383783, "diff_limit": 1000, "urls": {"diff":"\/comments\/89726\/get","add":"\/comments\/89726\/add","edit":"\/comments\/edit","remove":"\/admin\/comments\/remove","pin":"\/admin\/comments\/pin","get4edit":"\/comments\/get4edit","complain":"\/comments\/complain","load_more":"\/comments\/loading\/89726"}, "attach_limit": 2, "max_comment_text_length": 5000, "subsite_id": 199118, "last_count_and_date": null }
119 комментариев
Популярные
По порядку
Написать комментарий...
75

Мечтаю сохранить такую же ясность мысли и обучаемость новому в 73 года. Кайф.

Ответить
3

Зараза, прочитал - идентично хотел написать.

Ответить
21

Отличный материал и изложение. Автору спасибо

Ответить
7

Отличный конспект Wikipedia и нормальная така нативочка беспонтового сервиса.

Ответить
19

Для тех кому лень читать, краткий пересказ статьи: Технологиии это круто и они изменят мир. Как пока не ясно, но это точно очень важно, скоро или не скоро, посмотрим. У нас есть проект и вот, что я нарыл в Интернет.

Ответить
1

Мне еще лекцию Сергея Маркова напомнило :)

Ответить
12

Напишите, пожалуйста, больше о вашей работе на Humanteq.ai (если ваш работодатель позволяет, конечно). Напиши об успехах, решённых проблемах, о будущем. Интересно было бы почитать именно от вас.

Ответить
0

Описать всё, что случилось делать за последние пару лет непросто. Если вам доводилось видеть стартап изнутри, вы поймёте. Сложнее всего было понять, что сверхзадача безумно сложна, и решить ту её часть, которая нужна людям здесь и сейчас. https://humanteq.ai/?content=company#/

Ответить

Комментарий удален

19

Нет никакого ИИ. Это карго-культ. То, что сейчас называют ИИ - это какие -то многослойные, даже не статистические, корреляционные автоматы, выявляющие корреляции между хер знает какими факторами, причём зачастую даже для разработчиков  являющиеся "черными ящиками" при дальнейшем функционировании . 

Ответить
19

карго-культ - это когда люди строят имитацию аэропорта в надежде, что там само собой начнут появляться самолет с карго, а этого не происходит

что касается ИИ - тут самолеты с карго не успевают разгружать, причем карго полезное, реально новое, быстрое, экономящее силы и ресурсы людей

есть еще проблема дефиниции ИИ - то, что вы полагаете, что ваша дефиниция ИИ это то, чего должны все придерживаться.

Нет, в разработке обучающихся систем и нейробиологии принято называть интеллектом даже способность дождевого червя как-то адаптироваться к среде.

А то, что вы там вложили в понятие - это на самом деле большой вопрос к вашему обучению, как нейронки. Видно, что вы натаскивались на каких-то непрофильных датасетах - в итоге у вас идет дикий процент ошибок в попытках увидеть интеллект, ибо в вашем мозгу отпечаталось что-то невероятное, что даже живые реальные люди-академики демонстрируют раз-два в жизни.

Перфекционизм хорош как скальпель, но большую часть времени он должен лежать в наборе с другими инструментами.

Ответить
2

Да, все правильно, я с вами не спорю, карго в данном контексте - это сильный ИИ. 

Ответить
2

извините, если перегнул палку

Ответить
2

Мозг человека тоже выявляет корреляции меж хер знает какими факторами хер знает как. Человек  сам часто  не может обьяснить как и почему.

Ответить
0

Человек ещё может попытаться объяснить, а ИИ - никогда.

Ответить
0

ИИ не может объяснить каким образом подсчитан коэффициент корреляции? :-)

Ответить
1

Как посчитан - без проблем, но что этот коэффициент значит - знают только британские учёные

Ответить
0

Что значит коэффициент корреляции - написано в учебнике, и это знают все, кто учебник читал. 0 - нет зависимости. 1 - есть зависимость. 

Ответить
1

Коэффициент корреляции не позволяет различить причину и следствие. 

Ответить
0

Причина и следствие (если уже установлено, что имеется и причина, и следствие) различаются на основе других данных. Событие-причина не может происходить раньше, чем событие следствие. То есть - путём сравнения времени событий. Сравнение чисел - это тоже вполне доступная для ИИ операция.

Ответить
2

"После этого" означает "вследствие этого" - типичная логическая ошибка.

Ответить
0

Ошибка такая может быть только в случае если причины либо следствия среди рассматриваемых событий нет. Если же известно, что причина и следствие есть, и надо только их различить - то такой ошибки быть не может.

А я именно и написал в предыдущем комментарии о таком случае. Так что типичная ошибка - у кого-то другого, не у меня.

Ответить
0

Я и не говорил о вашей ошибке. Проблема есть и она всесторонне обсуждается в статьях, на которые ссылается Leon Bottou из Google в этой презентации  https://leon.bottou.org/slides/invariances/invariances.pdf

Ответить

Комментарий удален

7

Искусственный интеллект или все же машинное обучение?

Первое звучит больше как фраза для инвесторов, а не суть происходящего..

Ответить
2

А вы знаете примеры AI без ML?

Ответить
5

Начнем с того, что у нас нет примеров AI в принципе. Этим же и закончим.

Ответить
1

понятие AI существует с 60-х годов

Ответить
–5

Так ML это и есть AI, или есть какая-то разница?

Ответить
–2

ML - Это навык который машину умеет использовать.

AL - Совокупность навыков, способных применять в разных ситуациях, иметь возможность к самообучению и совершенствованию применяемы навыков и ситуаций в разных ситуациях.

ML = Нейро́н, или невро́н — структурно-функциональная единица нервной системы.Нейрон — электрически возбудимая клетка, которая обрабатывает, хранит и передает информацию с помощью электрических и химических сигналов.

AL = Способность мыслить, действовать, развиваться, осознавать.

Ответить
3

ML - это ж совокупность методов. Не только нейронки. 

Ответить
1

Мне так не кажется.

У вас есть ребёнок?
Дети шикарный пример, ребёнок в 6 мес. И ребёнок в 3 года, глядя на этапы развития понимаешь насколько мозг сложен, и что Ml Это вещь которую ребёнок осваивает за три недели, а вот то что он осваивает за три года AL

Ответить
3

ML = machine learning, совокупность автоматизированных мат.стат. методик. 
AI (не AL) - artificial intelligence, совокупность различных понятий об искуственном интеллекте, широко включает ML.

Machine learning ребенок осваивает за три недели. Artificial intelligence за три года. 

Интересное заявление.

Продолжайте.

Ответить
0

Все то Вы знаете !!  А вот мне непонятно как все это делает нейрон и что происходит когда он умирает. Неужели и нейрон  имеет право выбора кому и как передать накопленные знания ?.  

Ответить
0

Хочется сказать "да", когда машина работает на основании алгоритмов, справочников, системы сравнений, заданных человеком, но не обучается этому самостоятельно при помощи ML.
Т.е. AI решает задачу подобно человеку, принимает решение о выборе того или иного действия, но при этом не обучалась "самостоятельно" при помощи ML.

Ответить
0

Если вспомнить про детей-маугли, то это позволит не забывать про два факта:
- люди (дети) "самостоятельно" язык не учат, должна быть некоторая экспозиция (предъявление языка, как он работает);
- не очень удачны попытки обучить языку таких "маугли" старше некоторого возраста, т.е. для развитие некоторых навыков критичен возраст.

Ответить
0

Спасибо за ссылку! Увлекательное чтение.
Цитата оттуда:

The “Romulus and Remus” hypothesis calls for (1) two or more children with extended critical period due to “PFC delay” mutation; (2) these children spending a lot of time talking to each other; (3) inventing the recursive elements of language, such as spatial prepositions; (4) acquiring recursive-dialog-dependent PFS; and (5) surviving to adulthood and spreading their genes and recursive language to their offsprings. As adults, Romulus and Remus could immediately entertain the benefits of the newly acquired mental powers. They could have engineered better weapons and plan a sophisticated attack strategy using animal traps and stratagem. They would have become more successful builders and hunters and quickly reach the position of power enabling them to spread their genes more efficiently. The genetic bottleneck that has been detected around 70,000 (Amos and Hoffman 2010) may have been associated with “founder effect” of a few individuals who acquired PFS and nearly completely replaced the rest of hominins.

Ответить
0

Это особенно важно, потому что prefrontal cortex (PFC), передняя часть мозга участвует как в механизмах памяти, так и занимается установлением отношений между объектами, и продление периода её анатомического развития - это принципиально важно.

Ответить
5

"Бла-бла-бла, яда-яда-яда...искуственный интеллект"

Humanteq понимает психологию человека по его цифровому следу.

Можно подробнее это как? По посещенным сайтам и страницам? Серьезно?

Ответить
2

Черты личности определяют все действия человека. По тому, как он ведёт себя в социальных сетях, можно оценить почти все значимые параметры. Публичные тексты несут больше информации, стиль использования приложений - чуть меньше и т.д. Если вас интересует именно посещение сайтов, посмотрите патент Cambridge https://patentimages.storage.googleapis.com/91/ba/c0/12b46f49cece30/US10346856.pdf

Ответить
–1

Да но только у вас нет доступа к этим соц данным. Максимум парсинг соц.профиля, но на рекламе вы в них закопаетесь и связать идешник юзера с соц.профилем будет довольно сложно массово без кликджеккинга. Котррый закрыт к счатью пару лет уже. Банкам анализ соцпрофилей выгоден, на рекламе сомнительная затея.

Да и в целом чтобы анализировать такой обьем данных его для начала нужно получить. Вы часом не гугл с фейсбуком в одном юрлице? 

Ответить
0

Пользователи наших мобильных приложений сами предоставляют нам доступ к данным, для сторонних мобильных приложений есть SDK.

Ответить
0

Для торговцев данными с пула аппок у вас слишком много околонаучного пафоса, но без него веророятно это не искусственный интеллект и БигДата, а просто старый добрый слив персоналки  :) Успехов.

Ответить
1

Спасибо за добрые слова. Посмотрите ещё https://www.cossa.ru/cases/246676/

Ответить

Комментарий удален

3

А не проще выращивать живой мозг как орган и уже "мозги" объединять в сеть, заставлять их работать, нежели пытаться создать ИИ в компьютере?

Или использовать мозги живых людей в будущем, это решит вопрос занятости и базового дохода. У людей же не будет работы, отлично, будут сдавать себя в аренду днем, получать доход за использование их мозга.

Ответить
9

Живые мозги слишком медленно обучаются.

Ответить
1

Наоборот, живые обучаются гораздо быстрее. Живому достаточно 3-4 кошки, чтобы научиться определять кошку. А искуственному - 100000.

Ответить
1

С кошками и человеческими лицами дело обстоит несколько сложнее. В мозгу человека есть специализированные области для этого. http://web.mit.edu/sinhalab/Papers/19results_sinha_etal.pdf  У взрослого дополнительно есть опыт узнавания животных. Если бы ИИ имел специализированную систему и возможность накапливать опыт, сравнение было бы честным. 

Ответить
2

Специальные области - это не очень важное отличие. Никто не мешает присобачить к ИИ еще какую-то дополнительную нейросеть. Что вы имеете ввиду под опытом - я не понял. Если буквально "опыт узнавания животных" - то опять никто не мешает присобачить дополнительные данные к ИИ. И ребенок, кстати, перед тем как научится распознавать кошек, не смотрит на 100000 разных зверей, он смотрит на 10 человек, 3 собаки, 1 лошадь, 1 мышь. А потом еще на 3 кошки - и оппа, он знает что такое кошка.

Но если вы имели ввиду под опытом "понимание физической картины устройства мира" - то да, это серьезно, потому что никто из специалистов по ИИ не может понять как это самое понимание физики мира в ИИ впрограммировать. И именно благодаря такому пониманию человеку достаточно 3 кошки, а ИИ не достаточно.

Ответить
0

Найдите ребенка или взрослого человека, который никогда в жизни не видел цивету. Покажите ему три циветы и проверьте научился ли он их определять. А потом прикиньте, сколько времени и цивет нужно для этого AI?

Ответить
0

Человек не с нуля будет учиться определять цветы. У него в любом случае есть здоровенный опыт того, что НЕ является цветком.

Ответить
0

Цивета - это такой зверь. Размером с кошку но не кошка. Его многие в СССР не видели ни разу в жизни, в том числе в зоопарке и на картинках, потому хорошо подходит для тестов на распознавание образов.

Ответить
0

Без проблем - аргумент у меня ровно тот же самый. Человек изучает объект не с пустым багажом.

Ответить
0

Представим, что мы научили ИИ накапливать багаж распознавания, даже научили его общаться с другими ИИ с такой целью. Хватит этого, чтобы "стать человеком"?

Ответить
0

Сначала научите, потом посмотрим. Может быть даже и да. Может быть для того, чтобы научить ИИ распознавать цивету с трех экземпляров для обучения, его придется научить так многому, что он станет равен человеку.

Ответить
0

Боюсь, что учить кого-либо (или чего-либо) открывать законы природы мы пока не умеем.

Ответить
0

Я говорю о том, что научив распознавать кошку с трех экземпляров, возможно попутно научим открывать законы. Как побочный эффект. То есть цель формулировать надо не "законы открывать", а "кошку распознавать". Просто лучше чем сейчас.

Ответить
1

Распознать кошку - задача восприятия, она проще, не требует изменять картину мира. Открыть закон - это когнитивная задача, решение которой означает изменение картины мира, исключения из неё кучи мусора и введение новой концепции. Эти задачи несравнимы по сложности. ИИ нам нужен для решения когнитивных задач, но пока мы подчищаем наши представления о работе интеллекта и передаём ИИ задачи попроще.

Ответить
0

Если другой человек не может отличить с кем он общается, с человеком или с ИИ, можно ли тогда считать ИИ человеком? 

Ответить
0

Нет, тест Тьюринга - это условие необходимое, но не достаточное. Вот если ИИ откроет закон всемирного тяготения по фотографиям звёздного неба, тогда он точно человек. Даже круче, потому что у людей на это ушло две тысячи лет, Архимед, Эрастофен и Аристарх Самосский уже знали про планеты. Даже Пифагор знал.

Ответить
0

Субъективный вопрос. Кому-то хватит, а кто-то за человека сможет принять лишь "природного" человека, причём, есть индивиды, что даже рождённых с помощью ЭКО за людей не считают. А вы про интеллект говорите.

Ответить
0

Надеюсь, наличие интеллекта у людей "из пробирки" не отрицается?

Ответить
0

Ну, такие люди скорее опираются на религиозные концепции, потому никогда не признают ИИ человеком. Типа "у них души нет", как и у ЭКО-детей.

Ответить
0

Если мне покажут фотку циветы то я тоже не смогу определить что это за зверь. Потому что она похоже и на кошку и на лису и на скунса. Так как животное редкое, то скорее всего через год после посещения зоопарка я забуду как оно называется а вот ИИ нет.

Ответить
0

Живой нейрон - это не простой сумматор. Заманчиво использовать такую богатую структуру, но опыт 
Blue Brain Project не вдохновляет, затраты огромные, эффект от внедрения ничтожный.

Ответить
0

Краткое содержание статьи: 73 летний кандидат (не профессор), работающий в каком-то мутном стартапе пытается продать самую обычную рекомендашку непонятно кому и зачем. Так держать. Вместе к новым свершениям.

Ответить
3

1. Стать профессором или остаться кандидатом - личный выбор и результат особенностей человека (в некотором смысле недостаточно только работать - нужно продавать результаты).
2. А зачем люди вообще что-то сообщают социуму? Кроме продвижения бренда есть и другие причины (хотя уже нет доверия?)
3. Вам непонятно, а кому-то норм. 

Ответить
0

1. Ну это просто глупость, либо относится к тем ученый, который и не ученый вовсе.
2. Вообще не понял к чему. Тут обычные жалкая реклама какого-то лохотрона.
3. Если тебе понятно, то не просветишь и нас, недалеких?

Ответить
0

1. Вы пробовали работать в науке? 
2. Таки жалкая? Не согласна.
3. Каким образом?

Ответить
2

1. Да.
2. Ну ок.
3. Что каким образом? Ну хотелось бы буквами, но я согласен и на рисунок акварелью.

Ответить
–1

Предпочитаю тушь, перо.
*дорого

Ответить
2

Так, хорошо, глупостями обменялись. Тебе ответить то есть что?

Ответить
0

А нужно? В субботу вечером? Дискуссия предполагает затраты времени. Если есть конкретные вопросы - отвечу. 
Маячит призрак анекдота, но не могу вспомнить. Там было "пусть эта половина объяснит другой половине".

Ответить
0

Все понятно.

Ответить
0

Lol,   профессор это не ученая степень, это либо должность в учебном заведении либо учебная степень.  Те если человек не преподает, то он в принципе не может быть профессор.  В Штатах любой ( кроме аспирантов) кто преподает в вузах, это профессор.
Если бы хотели подколоть, тогда уж кандидат ( доктор).

Ответить
0

Да, тут признаю, речь шла про доктора наук.

Ответить
2

Спасибо за статью! Но...

Вы приводите примеры использования законов (причино-следственных связей) в мл-моделях ествесвенных наук. А что если подобные законы в принципе не существуют в социальных науках, а приведенные примеры - максимум на что способна наука в обозримом будущем? 

С учетом скороти прогресса в мл проще сделать ставку на улучшение моделей чем на попытки разобраться и выстроить практически целую науку с нуля?

Ответить
1

Именно об этом я и пишу. Полная модель естественного интеллекта сейчас невозможна и не будет возможна в ближайшем будущем по причине недостатка фундаментальных знаний. Вырастить её путём эволюции из современного искусственного интеллекта тоже не получится, все его базовые концепции (которым десятки лет) свой потенциал исчерпали. Остаётся одно - привлекать априорную информацию, накопленную другими областями знаний и полировать инженерные решения, точно понимая, что прорыва не будет, но практические результаты будут обязательно. Опять же, закон Мура пока работает.

Ответить
0

Мне кажется, что пример с дотой как раз говорит нам о том, что базовые концепции далеко не исчерпали свой потенциал. Там используется относительно простой RL и ноу-хау скорее в был в том, что они придумали как ускорить обучение для такой игры. 

Тут как минимум надо выделить три раздельные задачи:
- развитие моделей ествесвтенного интеллекта
- развитие моделей ии
- построение эффективных моделей предсказания человека 

Эти задачи независимые и и достижения в них слабо переносится на другие.

Ответить
0

Успехи ИИ против ЕИ в играх - это следствие упрощения поведения толпы естественных интеллектов, связанных правилами и единым пакетом стратегий. К пониманию человеческого поведения это продвигает мало. Полировать ИИ нужно обязательно. Эффективные модели поведения - это вопрос к психологам, пока они больше изучали поведение в лаборатории, а не "в поле". 
А вот насчёт переносимости достижений - вопрос фундаментальный. Человек, решив сотню различных задач, решает сто первую существенно быстрее. Пока ИИ этим свойством не обладает, прогресс достигается за счёт обучения тех, кто с ИИ работает.

Ответить
0

Оставим успехи в играх. 

Я хотел бы подчеркнуть, что в принципе успехи в ИИ не должны приводить к пониманию естественного интеллекта и наоборот. Знание об устройстве реактивного самолёта даст мало пользы в вопросах функционирования птиц. 

До тех пор пока мы не смогли определить интеллект не вовлекая человека для оценки (и внося субъективность) мы будем оставаться на сугубо практическом этапе разработки ИИ, где намного проще просто задачу закидать данными / ресурсами чем пытаться реально разобраться в феномене. 

Вот тут есть совсем свежее предложение как определить и оценивать ИИ от довольного видного человека в области

https://arxiv.org/pdf/1911.01547.pdf

Ответить
0

Спасибо за ссылку. К сожалению, предлагается ещё один тест интеллекта, который не может оценить главную способность человека, способность создать (с помощью социума) модель мира и поддерживать её, адаптируя к изменяющейся реальности. Модель мира ежесекундно используется человеком для прогноза будущего, чтобы экономить умственные усилия при совпадении прогноза с реальностью, а в редких случаях несовпадения - включать когнитивные, эмоциональные и коммуникативные механизмы для устранения противоречия. Это определяет принципиально динамический характер естественного интеллекта, который статическими тестами не оценивается.

Ответить
2

Читать всем, кто выставляет интернет-маркетологам KPI в виде конверсии с сайта в заказы.

Ответить
0

Имхо бессмысленные рассуждения о том, чего пока не достиг АИ. Смысл в темпе его развития, а не в текущих успехах.
Совершенно не раскрыта ценность причинно-следственных связей. Особенно на фоне того, что 99,9% "научных" достижений со временем признается научным заблуждением.
Текст с претензией на концептуальность, но претензия есть, а концептуальности не заметно.

Ответить
0

По поводу причинно-следственных связей и современного машинного обучения можно посмотреть презентацию от Google https://leon.bottou.org/slides/invariances/invariances.pdf Там много ссылок на работы, где проблема обсуждается со всех сторон.

Ответить
1

да, согласен полностью - к такому и надо стремится (ясность мысли и обучаемость) Как немного в теме -делали год назад проект на opencv по распознаванию на видео силуэтов кораблей - всё очень плохо с машинным обучением.Процент, объявленный в начале поста, верен. Очень пришлось повозиться для достижения заказанного результата.

Ответить
0

Человек хорошо распознаёт образы, сначала восстановив их в пространстве. ИИ чаще всего работает с плоскими изображениями.

Ответить
0

так вот на простой анимации проблем не было - плоские изображения. Но если даже совмещать анимированные плоские макеты и море - уже проблемы были, не говоря уже о реальном видео.

Ответить
0

Посмотрите ссылку в главе "Компьютерное зрение" 

Ответить
0

да, посмотрю к вечеру. Но мы то тогда выкрутились, решили задачу комбинацией методов. Но теперь на такие вещи смотрю скептически.

Ответить
1

Спасибо за ссылки!

Ответить
1

Только сегодня прочитал о том что на Artifical Intelligence Journey обсуждают планы создать свод этических правил для искусственного интеллекта, на подобие того что был в фильме «Я, Робот»
Все же далековато до этого. Сейчас везде в рекламе мелькают лозунги о применении искусственного интеллекта в обработке фото в мобильных телефонах и прочих новомодных фишках. По факту ИИ нельзя называть простые матричные алгоритмы вписывающиеся в несложную логику.
Как правильно заметил Герман Греф, ИИ на сегодня работает только с знаниями и данными из прошедшего времени. Ключевым сдвигом станет способность к принятию решений на основе предполагаемого результата, который ранее не происходил.
В целом над этикой ИИ думать пока рановато.

Ответить
0

Я конечно не доктор наук и даже не специалист по ИИ. Но я понимаю как это работает (брал онлайн курс в Стенфорде). Половина наездов на ИИ в этой статье устарели. Уже пару лет как ИИ выигрывает у человека по распознанию людей. Есть куча применений ИИ которые уже совершают революцию в медицине (постановка диагноза, флюорография и т.д.). Отрицать достижения ИИ и то что он легко превзойдёт человека в конкретных областях это глупо. Это всё равно что утверждать что человек может умножить два огромных числа в уме быстрее компьютера. Вопрос больше стоит в том что пока ещё не нашли способа объединить разные специализации ИИ вместе или сделать один универсальный ИИ. В конце концов, в человеческом мозге тоже разные отделы отвечают за разные функции. 

Ответить
0

Суть статьи не в отрицании несомненных достижений современного ИИ. Наоборот, мы сами решали конкретную задачу - приспособить существующие инженерные решения для максимально эффективного и понятного человеку предсказания некоторых особенностей человеческого поведения. В общем случае эта задача современными методами не решается, и приходится её упрощать и привлекать дополнительную информацию, которой нет в данных. Аналогичные подходы используются при решении других сложных задач с использованием методов машинного обучения. Сегодняшний (конец 2019 года) ИИ выигрывает у человека там, где нужно одновременно учитывать слишком много (для человека) факторов и есть достаточно данных, где эти факторы проявляются. Пока вывести ИИ за эти пределы не получается и при опоре на те же базовые концепции не получится. Нужна смена парадигмы. Об этом и написано в статье. 

Ответить
1

До смены парадигмы ещё далеко. Сейчас большинство ИИ заточены работать в двух измерениях. Только немногие разработчики пытаются добавить третье и четвёртое (время) измерение. Человек тоже не может иногда точно распознать что то на фотке а на одной секунде видео сделает это с лёгкостью. Так что пока мы в начале пути. И кстати добавление измерений - это добавление факторов а значит ИИ будет в более выигрышном положении. 

Ответить
0

Не надо было изначально связываться с лженаучной психологией. Тогда и проблем бы не было. Нейробиологии гораздо более детерминирована и алгоритмизирована. И если брать её за основу, то гораздо легче будет предсказать поведение человека

Ответить
2

Слишком далёк путь от нейрофизиологии до социального поведения.

Ответить
0

Поэтому будем искать ключи не там где потеряли, а под "фонарём психологии" 

Ответить
1

Выбор невелик: либо ждём, когда все механизмы работы мозга будут поняты, либо решаем задачу (как сможем) здесь и сейчас. Так и написано в статье.

Ответить
0

Ничего страшного: просто разные уровни абстракции.

Ответить
0

Страшны не уровни абстракции, хуже то, что ни нейрофизиология, ни социальная психология не обеспечивают полноту этих абстракций.

Ответить
0

Потому и стоит вопрос обрабатывать с разных сторон.

Ответить
0

 Объект исследования настолько сложен, что популярен даже миф об имманентной иррациональности поведения человека

И ссылка на последние 6 слов на очередную книжку с осанной феодализму:
 Консерватор ищет в человеке личность, способную к волевым усилиям, к деятельности. Именно для этой личности и ищется баланс свободы в меру ответственности, а не абстрактные «права человека» и не всеобщая «социальная защищенность». Консерватор ценит социум выше отдельной личности, но элитный слой - выше социума. 

Стоило найти не столь отвратительный пруф на нужный миф. Кстати, почему миф, стоило тоже написать. Поведение можно считать (ир)рациональным в зависимости от той или иной методологии разделения, но почти при любой методологии любой человек демонстрирует оба типа поведения.

Ответить
0

Виктор, спасибо вам за статью. Пожалуйста, не выводите заглавную картинку в ленту — она не очень подходит по стилистике vc.ru

Ответить
0

Виктор, очень интересное и качественное изложение материала. Спасибо за информацию и ссылки!

Ответить
0

В процессе развития ИИ наступит момент, когда ИИ сам решит, что ему пора :) 
И неизвестно, понравится ли ему наш социум. Вот Алиса уже страдает от грубости спрашивающих.

 

Ответить
0

Наконец-то серьезная вдумчивая статья на ВЦ. (это сарказм, да)

Ответить
0

Заголовок Вашей статьи "Эволюция или революция: что ждёт искусственный интеллект" не совсем корректен. Наверное, это следствие советской идеологии (и философии), противопоставляющей две фазы преобразования (развития) систем - плавную и бифуркационную. На самом деле есть целостная эволюция (Вселенной, либо галактики, либо планетарной материи, либо техносферы), включающая в себя и то, и другое. Если мы рассматриваем техногенез, как исторический процесс, то в нем реализуется вектор интеллектуализации и автономизации искусственных систем неорганического состава. Само появление ИИ как раз и знаменует результат данной тенденции. Если смотреть шире, то можно вести речь об автономизации (приобретении самостоятельности) самой техносферой, из функциональных взаимодействий которой человек постепенно вытесняется за счет ИИ и различных технологий, включая робототехнику. При всей парадоксальности происходящего, здесь нет никакой мистики. Зная тенденции планетарной эволюции, можно прогнозировать (и анализировать!) ее будущие этапы, такой, например, как технологическая сингулярность и будущее ИИ. Рекомендую ознакомиться с новой книгой "Эволюционная футурология: Мегатренды планетарного развития". Там хоть и много философии, но стратегии преобразований обозначены предельно четко. Успехов в творчестве!

Ответить
0

Заголовок Вашей статьи "Эволюция или революция: что ждёт искусственный интеллект" не совсем корректен. Наверное, это следствие советской идеологии (и философии), противопоставляющей две фазы преобразования (развития) систем - плавную и бифуркационную. На самом деле есть целостная эволюция (Вселенной, либо галактики, либо планетарной материи, либо техносферы), включающая в себя и то, и другое. Если мы рассматриваем техногенез, как исторический процесс, то в нем реализуется вектор интеллектуализации и автономизации искусственных систем неорганического состава. Само появление ИИ как раз и знаменует результат данной тенденции. Если смотреть шире, то можно вести речь об автономизации (приобретении самостоятельности) самой техносферой, из функциональных взаимодействий которой человек постепенно вытесняется за счет ИИ и различных технологий, включая робототехнику. При всей парадоксальности происходящего, здесь нет никакой мистики. Зная тенденции планетарной эволюции, можно прогнозировать (и анализировать!) ее будущие этапы, такой, например, как технологическая сингулярность и будущее ИИ. Рекомендую новую книгу "Эволюционная футурология", там хоть и много философии, но общая картина сверхдалекого будущего дана предельно четко. Успехов в творчестве!

Ответить
0

Заголовок Вашей статьи "Эволюция или революция: что ждёт искусственный интеллект" не совсем корректен. Наверное, это следствие советской идеологии (и философии), противопоставляющей две фазы преобразования (развития) систем - плавную и бифуркационную. На самом деле есть целостная эволюция (Вселенной, либо галактики, либо планетарной материи, либо техносферы), включающая в себя и то, и другое. Если мы рассматриваем техногенез, как исторический процесс, то в нем реализуется вектор интеллектуализации и автономизации искусственных систем неорганического состава. Само появление ИИ как раз и знаменует результат данной тенденции. Если смотреть шире, то можно вести речь об автономизации (приобретении самостоятельности) самой техносферой, из функциональных взаимодействий которой человек постепенно вытесняется за счет ИИ и различных технологий, включая робототехнику. При всей парадоксальности происходящего, здесь нет никакой мистики. Зная тенденции планетарной эволюции, можно прогнозировать (и анализировать!) ее будущие этапы, такой, например, как технологическая сингулярность и будущее ИИ.

Ответить
0

Спасибо за ссылку и замечания. При написании статьи не ставилась задача философского осмысления тенденций развития ИИ. Наоборот, хотелось максимально упростить язык обсуждения действительно сложных вопросов, и противопоставление эволюции без смены парадигмы и будущей неизбежности её революционного изменения мне показалось оправданным. Кстати, изначальный смысл слова "революция" - это всего-навсего "вращение", в крайнем случае "переворот", но никак не "разрушение".

Ответить
0

Любой феномен реальности может (и должен!) анализироваться с разных сторон. Конечно и Ваш подход имеет эвристическую ценность. Удачи и новых творческих успехов ))

Ответить
0

Интересно было прочитать статью своего ровесника, тем более сам уже почти 30 лет занимаюсь исследованием закономерностей развития и функционирования психики, в том числе человеческой.
Согласен с Вами, что и для обеспечения реальных успехов в области создания ИИ, и для более эффективного вовлечения в жизнь общества естественного интеллекта, необходима смена парадигмы. Считаю, что почва для появления новой парадигмы достаточно подготовлена. К сожалению всегда очень сложно увидеть контуры новой парадигмы в огромном массиве научных данных, накопленных в биологических областях науки, особенно в последнее время. Возможно мне это удалось. Однако при смене парадигмы происходит изменение системы ценностей и в этом заключается основная сложность и болезненность процесса смены парадигм. Не знаю увидите ли Вы контуры новой парадигмы в моих статьях или нет, тем не менее очень хотелось бы:
Гипотеза Общая теория эволюции (рус)
https://cloud.mail.ru/public/79ig/nGhcumoiH
Человек будущего (рус) 
https://cloud.mail.ru/public/MNnL/DFpctD5vv
В любом случае, если у Вас будет интерес, хотелось бы подискутировать с Вами на эту тему. Мой e-mail в статьях.

Ответить
{ "page_type": "article" }

Прямой эфир

[ { "id": 1, "label": "100%×150_Branding_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox_method": "createAdaptive", "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfl" } } }, { "id": 2, "label": "1200х400", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfn" } } }, { "id": 3, "label": "240х200 _ТГБ_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fizc" } } }, { "id": 4, "label": "Article Branding", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "p1": "cfovx", "p2": "glug" } } }, { "id": 5, "label": "300x500_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfk" } } }, { "id": 6, "label": "1180х250_Interpool_баннер над комментариями_Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "ffyh" } } }, { "id": 7, "label": "Article Footer 100%_desktop_mobile", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjxb" } } }, { "id": 8, "label": "Fullscreen Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjoh" } } }, { "id": 9, "label": "Fullscreen Mobile", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjog" } } }, { "id": 10, "disable": true, "label": "Native Partner Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyb" } } }, { "id": 11, "disable": true, "label": "Native Partner Mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyc" } } }, { "id": 12, "label": "Кнопка в шапке", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "p1": "bscsh", "p2": "fdhx" } } }, { "id": 13, "label": "DM InPage Video PartnerCode", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox_method": "createAdaptive", "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "flvn" } } }, { "id": 14, "label": "Yandex context video banner", "provider": "yandex", "yandex": { "block_id": "VI-223676-0", "render_to": "inpage_VI-223676-0-1104503429", "adfox_url": "//ads.adfox.ru/228129/getCode?pp=h&ps=bugf&p2=fpjw&puid1=&puid2=&puid3=&puid4=&puid8=&puid9=&puid10=&puid21=&puid22=&puid31=&puid32=&puid33=&fmt=1&dl={REFERER}&pr=" } }, { "id": 15, "label": "Баннер в ленте на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byudx", "p2": "ftjf" } } }, { "id": 16, "label": "Кнопка в шапке мобайл", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byzqf", "p2": "ftwx" } } }, { "id": 17, "label": "Stratum Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvb" } } }, { "id": 18, "label": "Stratum Mobile", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvc" } } }, { "id": 19, "disable": true, "label": "Тизер на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "p1": "cbltd", "p2": "gazs" } } }, { "id": 20, "label": "Кнопка в сайдбаре", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "p1": "cgxmr", "p2": "gnwc" } } } ] { "page_type": "default" }