Вы случайно не PHP Middle?
Сервисы
Loginom
2516

Из бизнес-пользователя в аналитики: какую систему для анализа данных выбрать

Хотите начать самостоятельно анализировать данные и не знаете, какой аналитический инструмент подойдёт? Где приручать питонов, а где ограничиться Excel? Мы подготовили обзор различных подходов к анализу данных, их преимуществ и недостатков.

В закладки

Почему каждый специалист хочет стать аналитиком и кто такой Сitizen data scientist?

Под начинающим аналитиком в этой статье мы в большей степени подразумеваем специалиста с техническим или экономическим образованием, но не исключаем и другую непрофильную специализацию.

В современном мире тяжело представить компанию, которая не собирает данные и не ориентируется при этом на «data-driven»-подход. На фоне информатизации более востребованными становятся специалисты, которые помогают бизнесу принимать решения на основе данных: Data Scientists и аналитики данных. Эти профессии являются самыми высокооплачиваемыми и перспективными специальностями в IT-сфере, а спрос на них продолжает расти.

Специалисты в предметных областях постепенно переквалифицируются в аналитиков данных. Связано это с тем, что бизнес-эксперты являются основными носителями ключевых знаний о компании и хотят использовать эти данные. У них есть информация и сотни идей, как улучшить бизнес. Например, маркетологам важно проводить маркетинговые исследования, финансистам — искать зависимость между финансовыми показателями, а специалистам по запасам — прогнозировать спрос на продукцию.

Однако в большинстве компаний весь анализ данных завязан на IT-отделе. Из-за этого возникает ряд проблем:

  • «Хотелок» у бизнеса много, IT-ресурсов мало, рынок меняется быстро. Возникает боль всех заказчиков — очередь к IT-специалистам. Из-за этого ожидание реализации задачи может длиться месяцами.
  • Эксперты понимают бизнес, но не понимают язык программистов. Программисты, наоборот, не знают тонкостей бизнеса. Из-за разницы в толковании и терминологии, объяснении постановки задач и обсуждении технического задания срок реализации растягивается.

У бизнес-пользователей всё чаще появляется необходимость анализировать данные собственными силами, проверять гипотезы на практике и получать работающие прототипы систем, быстро решать свои задачи, не дожидаясь разработчиков. Это стремление привело к появлению новой роли в аналитике — гражданский специалист по работе с данными (Сitizen data scientist).

Портрет Сitizen data scientist

Этот специалист умеет создавать и генерировать модели продвинутой аналитики и прогнозирования. При этом основная его роль выходит за рамки статистики и аналитики — прежде всего он остается бизнес-экспертом внутри своего подразделения. Сitizen data scientists не является профессионалом в области интеллектуального анализа данных и Big Data, у него нет специального образования и глубоких навыков в этой сфере. Зато он привносит в этот процесс собственный опыт и уникальные предметные знания.

Для воплощения своих идей в жизнь гражданскому специалисту по работе с данными требуется подходящее программное обеспечение. Именно развитие технологий послужило ключевым фактором роста числа Сitizen data scientists. Аналитические инструменты для неспециалистов стали доступнее в использовании, обеспечивают упрощённую подготовку, обработку данных и расширенную аналитику, включающую в себя Machine Learning и другие инструменты Data Science.

Какой инструмент для анализа данных выбрать начинающему аналитику? Давайте рассмотрим популярные классы систем для анализа данных и их особенности.

Excel

Бытует теорема о полноте Excel: любой бизнес-процесс можно описать достаточно «жирным» excel-файлом. Действительно, этот табличный редактор — настольный и универсальный инструмент любого специалиста по работе с данными. До сих пор ни один инструмент аналитика не может превзойти Excel по популярности.

Быстро произвести разнообразные расчёты, построить сводные таблицы, рассчитать прогноз и показать графики руководству — для этого вполне подходит табличный редактор. Анализ данных в Excel можно выполнить с помощью статистических процедур и функций (корреляция, регрессия, скользящее среднее и т.д.). Есть надстройки и приложения Microsoft, которые расширяют возможности Excel для очистки данных, создания моделей и отчётов сложной структуры, инструменты визуализации и другие.

Пример работы в Excel

Производительность Excel — недостаток программы, который особенно ощущается при росте объёма данных до одного миллиона строк: система начинает медленно производить вычисления. Иногда из-за этих трудностей с Excel-таблицами становится невозможно работать.

Проблемы с Excel появляются, когда компания растёт, в подготовке одного отчёта в Excel участвуют несколько сотрудников, которые постоянно обмениваются файлами, требуется автоматизация или сложная многоэтапная обработка. Например, каждую неделю разные подразделения готовят отчёты для коммерческого директора, склеивая данные из нескольких Excel-таблиц и выгрузок из 1С, с десятками вкладок и ссылок в нескольких версиях, да ещё постоянно изменяют и «улучшают» эти отчёты. Написание макросов на встроенном в MS Office языке помогает решить проблему, но ненадолго. В конце концов, компания сталкивается с состоянием, для которого даже есть собственное определение — Excel Hell.

Резюме:

➕ : Excel знаком каждому, поэтому подойдёт всем начинающим аналитикам. Сфера применения: для быстрого индивидуального исследования гипотез на небольшом объёме структурированных данных.

➖ : Когда танцы с бубном над подготовкой данных и сводными отчётами начинают занимать до нескольких часов в сутки, данных становится много, информационная модель усложняется, с отчётами работает несколько человек, появляется необходимость в изменении бизнес-процессов и переходе на другой инструмент.

BI-системы

Традиционные системы Business Intelligence — удобные инструменты представления и визуализации информации. К ним относятся Power BI, Tableau и другие.

BI-платформы позволяют собирать данные из различных источников, строить регулярные красивые отчёты и интерактивные дашборды для руководителей с любой степенью детализации. Они используются для создания систем аналитической отчётности, мониторинга, KPI и отвечают на вопросы: что случилось ранее или происходит в текущий момент. Эти продукты способны обработать во много раз больше данных, чем Excel.

Пример работы в Tableau

К недостаткам BI-систем относится отсутствие инструментов для продвинутой аналитики (кроме встроенных сторонних языков программирования). Без погружения в кодирование пользователь не сможет заниматься именно анализом и предсказанием развития ситуации в будущем: почему это случилось, что может случиться и что делать. Например, кто из клиентов склонен к оттоку или какие факторы влияют на продажу товаров.

Компаниям преподносят BI-системы как решение проблем получения отчётов. На самом деле BI — это только вершина айсберга, а под водой скрывается множество сложностей получения данных — ETL (Extract, Transform, Load). Загрузка, предобработка, очистка и стандартизация данных — это самая большая проблема аналитиков, которая занимает до 80% всего процесса анализа данных. Для подготовки только одного отчёта на ETL-процесс может уходить до нескольких недель. Например, когда необходимо совместить данные о производстве и поставках, которые вносились разными отделами в разных местах и системах. BI-платформы предлагают инструменты или дополнительные компоненты для ETL-процесса, но их функционал либо ограничен и недостаточен, либо необходимо писать код.

Резюме:

➕ : Для бизнес-пользователей погружение в BI-приложения осуществляется легко и просто, оно не требует специальных знаний. С помощью BI-систем можно строить красивые отчёты для руководителей и проводить визуальную оценку для поиска инсайтов.

➖ : Если в компании не существует единого хранилища данных и не налажены процессы управления качеством информации, то придётся порядком попотеть совместно с IT-шниками над получением достоверных результатов. Для возможностей, связанных с углублённой аналитикой данных, надо использовать другие инструменты.

Языки программирования для анализа данных

Среди аналитиков популярны языки программирования Python и R. Они мощные и гибкие, что позволяет написать на них практически всё, что необходимо, работают с большими объёмами данных. В помощь Data Scientist’ам существует огромное количество готовых библиотек для визуализации, ETL, машинного обучения и интеллектуального анализа данных. Часто появляются новые библиотеки, которые размещаются в открытом доступе.

Пример работы в Python

Порог вхождения в языки программирования самый высокий по сравнению с другими инструментами, так как нужны специальные знания в области IT и статистики, а также умение писать код. Нельзя просто прочитать инструкцию для «чайников» и пойти программировать работающие системы. Ведь между копированием библиотеки и полноценным решением огромная разница.

Для бизнеса немаловажное значение имеет, как быстро и сколько сотрудников смогут разрабатывать решения на языке программирования. Сейчас много доступных обучающих курсов на популярных площадках, но: а) нужно длительное время на изучение; б) высок шанс для непрограммиста осознать, что это не его и он не сможет осилить эти знания. Многие начинающие аналитики, хоть и не признаются в этом, действительно не сумели стать разработчиками на Python или R и за год обучения.

Резюме:

➕ : Если предыдущие инструменты не решают ваших задач, то переходите на новый уровень прокачки своих аналитических умений — изучайте языки программирования. С помощью них вы сможете настроить весь процесс анализа данных и использовать, в том числе, продвинутые алгоритмы машинного обучения в своей работе.

➖ : Для начинающего аналитика этот порог входа самый высокий. Помимо знаний в Data Science необходимы умения в области программирования. Будьте готовы, что на довольно плотное обучение уйдёт минимум полгода. Ведь бизнес-пользователь должен освоить новую, достаточно сложную, специальность.

Аналитические low-code платформы

Здесь речь пойдёт не про все аналитические платформы, а только те, которые работают по принципу low-code. Эти инструменты визуального проектирования были разработаны специально для аналитиков, не обладающих навыками программирования, и оснащены всеми необходимыми инструментами для простой работы с данными. Примеры таких решений: Loginom, Alteryx и т.д.

Аналитические платформы, которые базируются на принципе low-code, представляют собой конструкторы с набором готовых «кубиков». Решения, которые ранее разрабатывались программистами, теперь могут собираться самими аналитиками, «мышкой», в короткие сроки. Системы показывают высокую производительность при работе с большими массивами данных.

Платформы позволяют автоматизировать ежедневную работу аналитика различной сложности, практически не привлекая к ней разработчиков. Получение данных из различных систем, объединение, преобразование, очистка, простые и сложные вычисления, визуализация — та самая работа, на которую у аналитиков уходит до 80% времени. Она легко выполняется на аналитической платформе без кодирования и не требует специфичных знаний.

Для продвинутой аналитики платформы содержат инструменты Machine Learning. Наличие упрощённых мастеров настройки алгоритмов анализа данных с уточняющей документацией максимально упрощает вход в профессию аналитика.

Пример работы в Loginom

Для применения алгоритмов продвинутой аналитики всё-таки понадобится изучение теории по анализу данных и математической статистике. Не требуется становиться 100% Data Scientist’ом, но должно быть понимание, для чего нужен определённый алгоритм анализа данных, как правильно подготовить данные для него и интерпретировать результаты.

Минусом аналитических платформ также является ограниченное количество компонентов. При нехватке функционала придётся использовать встроенные языки программирования и просить помощи у своих IT-шников. Low-code не исключает написание кода, а сводит его к минимуму.

Резюме:

➕ : Визуальное проектирование понятно всем, кто работает в Excel. Для получения первых результатов непрофессиональным разработчикам достаточно пары дней. На базе аналитической платформы начинающие аналитики смогут реализовать бОльшую часть своих ежедневных задач: от подготовки данных до машинного обучения и моделирования.

➖ : Для использования продвинутой аналитики придётся погуглить про алгоритмы анализа данных, изучить, что это такое и как может быть применено к вашим данным. В случае выхода за рамки low-code идеологии требуется написание кода или помощь IT-отдела.

Инструмент для аналитика данных — какой в итоге выбрать?

Анализ данных расширяет возможности компании, позволяя бизнесу получать инсайты. Ключевая роль в этом процессе теперь отводится бизнес-экспертам как основным «носителям» знаний. Бизнес-пользователю нужен лишь подходящий инструмент.

В этой статье мы перечислили инструменты, которые обеспечивают лёгкий доступ к данным и аналитике для начинающего Сitizen data scientist. Каждый из них используется в подходящей для него области. Выбирайте самый простой из возможных способов решения вашей задачи. Если можно обойтись Excel, то используйте Excel. Если начинают создаваться обходные решения или неэффективно используются существующие инструменты, переходите на новый уровень. Каждый последующий шаг — это открытие новых горизонтов и профессиональное развитие в самом перспективном IT-направлении – Data Science.

Развивайте свои аналитические навыки, пробуйте и выбирайте подходящий для вас инструмент для работы с данными. Ищите то решение, которое быстро и эффективно реализует вашу задачу, а главное, поможет избежать ежедневных рутинных операций.

Профессиональный разработчик продуктов и решений в области анализа данных. Специализируется на разработке систем для глубокого анализа данных, охватывающих вопросы сбора, интеграции, очистки данных, построения моделей и визуализации.
{ "author_name": "Loginom", "author_type": "editor", "tags": [], "comments": 19, "likes": 12, "favorites": 103, "is_advertisement": false, "subsite_label": "services", "id": 142200, "is_wide": false, "is_ugc": false, "date": "Thu, 16 Jul 2020 10:30:09 +0300", "is_special": false }
Маркетинг
Как мы доверили маркетинг подписчикам и получили 585 тысяч креативных идей: кейс онлайн-симулятора во «ВКонтакте»
«Студия Чижова» делится кейсом, в котором с помощью геймификации привлекла аудиторию в офлайн, получила креативный…
Объявление на vc.ru
0
19 комментариев
Популярные
По порядку
Написать комментарий...
6

"Среди аналитиков популярны языки программирования Python и R"

Вы забыли еще один минус использования ЯП для аналитики: как правило, Data Scientist'ы редко хорошо владеют навыками хорошего проектирования, поддержания стиля кода  и др., которые повышают понятность и простоту модификации кода.

В результате быстро встает проблема масштабирования при увеличении количества сотрудников на проекте. Каждый пишет в своем стиле, и каждый следующий начинает работу со слов: "кто написал этот ужасный код, проще все выбросить и переписать заново".

Ответить
4

Очень точно. Обычно код пишут быстро под требования бизнеса, через 6 месяцев сам автор с трудом может объяснить, что написал.

Ответить
4

Основная проблема разработчиков – это, все-таки, непонимание предметной области. Программисты не то, что не знают, а знать не хотят нюансы бизнеса. Видимо, одна из причин связана с тем, что как только начинаешь разбираться, то выясняется, что этому надо посвятить всё время, я бы даже сказал всю жизнь. :)

Пока не погружаешься в предметную область всё кажется понятным. Руки так и чешутся взять побольше алгоритмов, желательно со словами «искусственный интеллект» влить какие попало данные и ждать чуда. Если не сработал один алгоритм, то попробовать другие.

Но когда пообщаешься с бизнес-экспертом выясняется, что проблемы совсем не там, где хотелось бы их иметь. Например, взять типичную задачу – анализ клиентов. Казалось бы, что тут не понятного? Сегментируем клиентов, определим предпочтения, адресные предложения… В общем, как все рассказывают.

Всё шикарно, пока не берешься за реальную задачу и реальные данные. Сразу выясняется, что непросто ответить даже на базовый вопрос – клиент это кто? Это частное лицо, семья, домохозяйство, компания? Это зависит от множества факторов. И дальше приколы в том же духе. Например, что считать оттоком клиента или откликом на маркетинговое предложение. Про качество данных лучше вообще не начинать разговор.

Надо глубоко знать предметную область. Без этого никуда. Хорошо, если бизнес-эксперт, а не разработчик как можно больше сделает своими руками. Поэтому BI-системы так популярны, а low-code все более распространяется.

Ответить
5

Никто не пугает сложностью изучения языков программирования. Это факт, который надо признать. Лично я разработчик и тоже быстро изучил не один, я много языков программирования, но при этом не считаю, что любому это даётся так же легко.

Если человек выучил язык программирования - отлично. Пусть им пользуется. Только считать дебилами людей, которые это сделать не смогли странно.

Кстати, пример, который вы привели - типичная когнитивная ошибка. Берём один пример и считаем, его за правило. "Мой знакомый за год выучил английский, если кто-то не может это сделать так же, значит он дебил". Вместо слово "английский" можете поставить что угодно.

Специалист по анализу данных таких ошибок допускать не должен. Далеко идущие выводы можно делать на основе большой выборки, а не тех, с кем вы лично знакомы. Для этого лучше всего посмотреть, что происходит на рынке в целом.

А вот тут все факты явно указываются, что программирование, причем любое, штука сложная. Кривая обучения слишком крутая, поэтому способных её пойти мало. Спрос на разработчиков большой, куча предложений, большие зарплаты. И ситуация такова уже не один десяток лет.

На свободном рынке, а рынок труда достаточно свободный, люди выбирают ту работу, которая приносит максимальную выгоду. Если можно за 3 недели изучить специальность и получать в 2-3 раза больше, чем есть на текущий момент, то спрос на разработчиков был бы удовлетворен за год-два, но, зайдя на любой сайт вакансий, можно легко убедиться, что это не так.

В конце так же как и вы сошлюсь на Gartner. Согласно их прогнозам в 2024 году более 65% корпоративных приложений будет создаваться при помощи low code инструментов. Это не много, а очень много. В переводе на русский это означает, что ВСЁ что можно реализовать при помощи low code будет реализовано на нем.

Low code это не временное увлечение, а фундаментальный тренд. Возник он не от хорошей жизни, а потому, что всё происходящее на рынке давно и явно указывает, что спрос на разработчиков во много раз превосходит предложение. Причем удовлетворить его не получается именно потому, что это сложно.

В подобной ситуации можно, конечно, считать всех неспособных изучить язык программирования дебилам, но есть более правильный путь - предложить инструмент у которого кривая обучения была бы не такой крутой.

Я не считаю, что R или Python это плохо. Как раз наоборот - это хорошо. Low code системы поддерживают ЯП, т.к. не всё укладывается в парагдиму визуального конструирования. Просто большинство людей могут получить такой же результат, но намного проще и прибегать к кодированию в редких случаях.

Кстати, посмотрел статью на Хабре, что вы указали. Всё что там реализовано на R можно получить в любом BI инструменте, не то, что не изучая язык программирования, а практически не прикасаясь к клавиатуре. Причем будет лучше чем на R по всем показателям: проще, красивее, быстрее, гибче. И парсинг json в low code продуктах тоже не проблема. 

Выбирайте тот продукт, который больше нравится, но большинство пользователей выберут более простой инструмент. Это же просто здравый смысл. Как говорится, "если результат такой же, зачем платить больше?"

Ответить
2

А чего, SQL для аналитики данных уже не нужен? 

Ответить
3

Умение писать SQL-запросы является несомненным плюсом, особенно когда речь идет о выгрузке больших объемов данных. Но анализ данных это же не только выборка и агрегация. Кроме того, есть такая проблема, как работа с разными источниками данных.

Например, что-то взяли из базы (тут есть SQL), что-то из Excel, часть данных с какого-нибудь веб-сервиса или с Яндекс-метрики, еще что-то из 1С. Объединить это один SQL запросом не представляется возможным.

При этом, описанный кейс очень даже реальный. На практике работа примерно так и выглядит, т.к. разные данные хранятся в различных источниках, а для работы нужно их связывать. Так что SQL при всем желании не покрывает подобные задачи.

Ответить
0

безусловно, но если вы взяли 5 источников данных, вы их где будете объединять в общий поток для анализа, не в самой же BI? Вы все это пакуете в БД или например в хранилище типа BigQuery, а уже оттуда сагрегированные с помощью SQL данные анализируете. Вы ж не можете Excel, выгрузку из 1С и данные из Яндекс.метрики, пришедшие через коннекетор, склеить в BI в одно окно. Ну, то есть можете, но это безумие, внутри Tableau например каждый канал с уникальными полями и данными подтягивать к общему дэшборду со стандартизированными показателями.

Ответить
0

В BI системах это сделать сложно, особенно если речь идет о нетривиальных связях, например, если надо данные как-то обработать или улучшить их качество перед связыванием.

Обычно для этого используются отдельные продукты, а не классические BI системы. У них даже есть названия класса DataPrep. Это что-то типа сильно урезанных low-code платформ.

Думаю, что подобные проще всего сделать при помощи low-code подхода. Хотя, при желании можно и скрипты написать. Это зависит от того, что аналитик знает.

Ответить
2

На чистых данных, уже сведённых, любой маркетолог справится с отчетностью, имхо. Задача дата аналитика все-таки не дэшборд собрать из таблички, а собрать весь цикл от сбора сырых данных из источников до вывода наглядной статистики в одно окно. 

Ответить
1

Эту мысль надо до пользователей регулярно доносить. :) Конечно, все эти мучения со сбором и подготовкой данных никому не нужны, вот только без них никуда.

Все хотят сразу, не пачкая рук, получить красивый дашборд. Аргументы обычно такие, что вся эта возня с данными "не несет бизнес-ценности". Убедить, что это не так не просто.

Приходится ждать, чтобы наломали побольше дров и осознали, что ценность дашборда определяется не только красивым интерфейсом, но  качеством анализируемых данных.

Ответить
1

Спасибо автору, подтвердил мои мысли. Присматриваюсь к аналитическим лоу-код системам, пора заняться уже освоением )) Так как я гуманитарий до мозга костей - подскажите, с какой проще начать работать, и так, чтобы можно было не очень долго почитать или посмотреть - и более-менее разобраться?

Ответить
2

Мы можем порекомендовать скачать бесплатную trial-версию - https://loginom.ru/download на сайте есть подробная документация и демо-ролики, после изучения которых вы сможете сразу писать аналитические сценарии.

Ответить
1

XL->power pivot->power bi отличная связка по нарастанию сложности задач. Дальше уже R, или python с тем же pandas или их сочетание с power bi. Считаю что статья нагоняет слишком много жути. Dax решает огромный пласт проблем. Костыли для тех кто типа не умеет в программирование, это тупик развития. Не надо туда ходить.

Ответить
1

Предложение после Power BI переходить к программированию на R или Python – это попытка пойти против природы людей. Это прыжок не через ступеньку, а через лестничный пролет.

Конечно, было бы классно, если бы все знали программирование, но такого не будет. Спросите у любой компании, занимающейся обучением языкам программирования, сколько людей дошло до конца курса. Информация будет удручающая. Через месяц отвалится половина, на второй месяц отвалится еще половина. Хорошо, если до финала дойдет процентов 10-15.

Мы сами готовим учебные курсы и знаем, что происходит изнутри. Что только не делали: упрощали курсы, делили на части, давали готовые блоки, делали ролики… Дальше нескольких первых разделов проходит мало. Начинаешь терять веру в людей, когда понимаешь, что они не хотят читать даже 3-х строчек в справке.

Из всех вариантов решения проблемы большинство выберет самый простой, а low code позволяет решить 95% рутинных задач без траты время на изучение синтаксиса, библиотек и прочего. Не всегда самым оптимальным способом, ну и что? Зато, через 5 минут после запуска программы.

Кстати, языки с динамический типизацией (тот же Python) – это зло. Не ходите туда – это тупик развития. Любой настоящий программист приведет убойные аргументы против них: трудно диагностируемые ошибки, низкая скорость, неоптимальное расходование памяти и еще куча всего. Сплошь недостатки, причем совершенно объективные, кроме одного плюса. Но плюса настолько убойного, что им перекрываются все недостатки – такие языки проще в изучении.

Результат немного предсказуем, большинство игнорируют мнение о том, что является добром и злом. Им все равно считает ли кто-то динамическую типизацию костылями. Они используют то, что проще. К более «правильным» языками, типа C/C++ прибегают только, когда припрет к стене. Чем проще инструмент, тем больше людей предпочтут его.

Ответить
2

Есть прикладные языки, вроде питона. Наговнокодил чёто там и оно работает. В этом то и принцип и смысл. Порог входа очень низкий. Дело делается. Нет смысла сравнивать это с с++. А не понимая логики и принципов построения алгоритмов, человек что код не напишет, что блоки в конструкторе не сообразит как собрать.

Ответить
0

Многие начинающие аналитики, хоть и не признаются в этом, действительно не сумели стать разработчиками на Python или R и за год обучения.

Уж простите, но если начинающий аналитик за год не научился писать на R, то он дебил и ему не место на этой должности.

У меня студентка за 3 недели начала решать производственные проблемы на R. Через полгода можете оценить по ее прогресс статье на Хабре, которая набрала 180 лайков при 120к прмотров "Умирает ли RuTracker? Анализируем раздачи".

Я мечтаю о том чтобы каждый крутой специалист был и аналитиком в своей области. Low-code им в этом поможет. Но как удобная ступень к программированию на R или python.

Я осуждаю ваши попытки запугать сложностью прграммирования с целью продвижения своего продукта.

Идеальный вход в аналитику с нуля – это Dataiku DSS, а далее R + tidyverse. Gartner высоко оценил Dataiku в magic quadrant.

Желаю успехов в продвижении аналитики в массы, но с честным маркетингом.

Ответить
3

вход в Dataiku и в Loginom, это как подготовка выхода в "открытый космос" и выход прогулять по парку в нежаркий день. То, что предлагается в Dataiku к реализации (и самое главное - в скорости) не может сравниваться с Loginom. 
Я пробовал парсить в т.ч. ту самую выборку в RuTrecker`а в Loginom, задачу я выполнил на порядок быстрее (аналогичную в описываемой статье). При этом я сделал это на простой Community версии Loginom.
Идеальный вход в аналитику - это базовый скилл уметь подбирать инструмент под задачу и алгоритм, а также подход к ее решению.
Никакая привязка к инструменту (Dataiku, Loginomm. KNIME, R, Python и т.п) не обеспечит быстрый и успешный вход в аналитику. Только комплексное понимание сути задачи, имеющихся инструментов и знание подходов в решении подобных задач -  обеспечивает успешность аналитика как специалиста.

Ответить
1

Никто не пугает сложностью изучения языков программирования. Это факт, который надо признать. Лично я разработчик и тоже быстро изучил не один, я много языков программирования, но при этом не считаю, что любому это даётся так же легко.

Если человек выучил язык программирования - отлично. Пусть им пользуется. Только считать дебилами людей, которые это сделать не смогли странно.

Кстати, пример, который вы привели - типичная когнитивная ошибка. Берём один пример и считаем, его за правило. "Мой знакомый за год выучил английский, если кто-то не может это сделать так же, значит он дебил". Вместо слово "английский" можете поставить что угодно.

Специалист по анализу данных таких ошибок допускать не должен. Далеко идущие выводы можно делать на основе большой выборки, а не тех, с кем вы лично знакомы. Для этого лучше всего посмотреть, что происходит на рынке в целом.

А вот тут все факты явно указываются, что программирование, причем любое, штука сложная. Кривая обучения слишком крутая, поэтому способных её пойти мало. Спрос на разработчиков большой, куча предложений, большие зарплаты. И ситуация такова уже не один десяток лет.

На свободном рынке, а рынок труда достаточно свободный, люди выбирают ту работу, которая приносит максимальную выгоду. Если можно за 3 недели изучить специальность и получать в 2-3 раза больше, чем есть на текущий момент, то спрос на разработчиков был бы удовлетворен за год-два, но, зайдя на любой сайт вакансий, можно легко убедиться, что это не так.

В конце так же как и вы сошлюсь на Gartner. Согласно их прогнозам в 2024 году более 65% корпоративных приложений будет создаваться при помощи low code инструментов. Это не много, а очень много. В переводе на русский это означает, что ВСЁ что можно реализовать при помощи low code будет реализовано на нем.

Low code это не временное увлечение, а фундаментальный тренд. Возник он не от хорошей жизни, а потому, что всё происходящее на рынке давно и явно указывает, что спрос на разработчиков во много раз превосходит предложение. Причем удовлетворить его не получается именно потому, что это сложно.

В подобной ситуации можно, конечно, считать всех неспособных изучить язык программирования дебилам, но есть более правильный путь - предложить инструмент у которого кривая обучения была бы не такой крутой.

Я не считаю, что R или Python это плохо. Как раз наоборот - это хорошо. Low code системы поддерживают ЯП, т.к. не всё укладывается в парагдиму визуального конструирования. Просто большинство людей могут получить такой же результат, но намного проще и прибегать к кодированию в редких случаях.

Кстати, посмотрел статью на Хабре, что вы указали. Всё что там реализовано на R можно получить в любом BI инструменте, не то, что не изучая язык программирования, а практически не прикасаясь к клавиатуре. Причем будет лучше чем на R по всем показателям: проще, красивее, быстрее, гибче. И парсинг json в low code продуктах тоже не проблема.

Выбирайте тот продукт, который больше нравится, но большинство пользователей выберут более простой инструмент. Это же просто здравый смысл. Как говорится, "если результат такой же, зачем платить больше?"

Ответить

Комментарии