Новые горизонты Data Governance. Управление данными как стратегический актив

Меня зовут Джимшер Челидзе. В управлении проектами, продуктами и изменениями я более 10 лет, и большую часть из этого занимает автоматизация и цифровизация. Этим же темам, а также искусственному интеллекту и информационной безопасности посвящены четыре мои книги.

Новые горизонты Data Governance. Управление данными как стратегический актив
© It-world

Вопрос управления данными один из приоритетных для меня. В статье «Семь причин большинства проблем на пути цифровизации и цифровой трансформации» проблему культуры работы с данными я выделил как одну из ключевых, поскольку это самое трудное направление — для бизнеса ценность неочевидна, пока не накопятся ошибки.

Почему грязные данные дорого обходятся компаниям?

Чтобы объяснить, почему я уделяю этому особое внимание и почему грязные данные обходятся дорого, приведу три примера из практики.

Внедрение системы управления ремонтами

В этом проекте я участвовал с 2015 по 2018 год, а само решение «внедряют» до сих пор. Одна из целей системы — оптимизировать процессы технического обслуживания и ремонта, повысив эффективность использования ремонтного фонда.

Один из основных инструментов для решения этой задачи — сбор данных о дефектах и отказах оборудования с последующей аналитикой. И здесь была допущена ошибка в работе с данными, которая стала фундаментальной проблемой. Подразумевалось, что фиксация дефектов (что случилось, на каком оборудовании) должна проводиться в ручном режиме. И когда мы формировали внутрисистемные справочники, то в описании типов дефектов оставили пункт «Прочее».

Как думаете, куда ушло более 90% дефектов и как они описывались? Все верно: уходили они в то самое «прочее», а описания были максимально односложными из разряда «свищ», «течь» и т. д. И таких ошибок было множество. Пытались ли с этим бороться? Конечно! Но это больше напоминало борьбу с ветряными мельницами. Поэтому одно из моих правил — максимально автоматизируем сбор данных. Человек всегда будет генератором «грязных» данных.

Как очистить «грязные» данные?

Сейчас, спустя практически 10 лет и более 1 млрд рублей инвестиций, система не решает поставленных перед ней задач. В ней пытаются делать что угодно, кроме качественной аналитики. И за это время в ней накопилось столько данных, что и потерять их жалко, и разгрести практически невозможно. Компания периодически выходит на рынок в поисках подрядчиков, но после погружения в тематику никто не готов идти в проект.

Разработка собственной системы для сбора производственной отчетности

Начиналось все как простой отказ от форм Excel в пользу веб-решения с общей базой данных для ежедневного сбора отчетности более чем с 30 объектов по всей стране. Постепенно в решение добавлялись различные модули: расследование инцидентов, перемещение оборудования, табелирование сотрудников и т. д.

Проект делался собственными силами без привлечения инвестиций. Сами понимаете, что означает «собственными силами» — выделяют сотрудника, назначают ответственным и дают ему задачи сверх должностных обязанностей. Насколько тщательно такой ответственный проверит все данные? Еще на раннем этапе я поднимал вопрос проработки качества данных.

Точка перелома наступила примерно через год. Функционала много, данных в системе тоже. Однако сделать на всем этом качественную аналитику и дашборды для принятия решений оказалось невозможным. Все с умным видом говорили: «Да, это классно, это нужно, но пользоваться в полную меру не можем».

В итоге был выделен бюджет и начаты работы по обеспечению качества данных. Например, ежесуточные отчеты верифицировались руководителем проекта под свою ответственность, были запланированы интеграции для сбора данных напрямую с оборудования и т. д.

Внедрение системы управленческих дашбордов

Пожалуй, аналитические дашборды — одни из самых популярных и хайповых проектов. Красивые дашборды вместо длиннющих таблиц для аналитики — мечта многих руководителей. Самые продвинутые из них хотят уже рекомендательных систем на базе искусственного интеллекта.

Но что происходит на деле? Отбираются крутые и мощные решения, покупаются лицензии, и их разворачивают на внутренних серверах. Стоимость таких проектов варьируется от 5 млн до 25 млн рублей. При этом довольно часто получается, что данные в систему для визуализации попадают из... таблиц Excel, которые заполняются людьми вручную. Принимаются ли на базе этих дашбордов какие-либо серьезные решения? Доверяют ли этим данным? Могут ли эти дашборды обновляться оперативно и быстро? Думаю, ответ понятен всем.

Подобных примеров я могу приводить много, в том числе и про 1С, и про финансовую отчетность и проекты по ERP. При этом надо понимать, что просто внедрением MDM (управление нормативно-справочной информацией) здесь не обойтись. Важны не только справочники НСИ, но и операционные данные.

Приоритетные задачи для управления данными

Если мы хотим не только автоматизировать операции, но и получать аналитику для принятия решений, то заниматься вопросами качества данных нужно еще до того, как начинается работа по автоматизации и внедрению технологий. И не зря в методологиях и рекомендациях по команде цифровой трансформации фигурирует роль CDO — руководителя по работе с данными (наравне с руководителем по процессной деятельности).

Ведь тут нужно с самого начала решить систему уравнений.

Первое — обеспечение качества данных невозможно без описания процессов в целом, поэтому это два параллельных направления.

Второе — чтобы обеспечить качество данных, информационную безопасность и не парализовать работу, необходимо определить, какие ИТ являются мастер-системами для тех или иных данных, и в целом понять потоки данных и их жизненный цикл. Это нужно, чтобы снизить не только количество ручного труда для людей, но и нагрузку на систему обеспечения качества данных (чем меньше точек ввода данных, тем проще оптимизировать процессы и меньше требований предъявляется к людям) и их безопасности (меньше точек ввода данных — меньше точек утечки или подмены для атак);

Третье — необходимо обеспечить качественную ИТ-инфраструктуру и сформировать компетенции у людей.

Проработку качества данных при проведении цифровизации я обычно выделяю в этап подготовки.

Также я сформировал системный подход — набор инструментария, который необходим как в целом организации, так и отдельному направлению внутри компании.

Дорожная карта и рекомендации

Руководство вряд ли сразу выделит ресурсы на это направление. Строить централизованную функцию с качественной командой дорого. И с учетом уровня цифровой зрелости бизнеса экономисты, производственники и другие службы вас не поддержат. Посчитать напрямую финансовые эффекты и доказать их будет тем еще квестом.

При этом строить децентрализованное управление данными, в котором каждая служба отвечает за качество своих данных, тоже не получится, так как у этих служб нет компетенций и договариваются между собой они тоже плохо.

В общем, задача, что называется, со звездочкой. Поэтому я могу рекомендовать отталкиваться от проблем бизнеса. Например, в рамках разработки стратегии цифровизации я провожу интервью со всеми заместителями директора и формирую список проблем, что позволяет мне получить от них поддержку. Также тут вам могут помочь специалисты по безопасности, поскольку управление качеством данных — это в том числе и про обеспечение экономической и информационной безопасности.

Если суммировать мой опыт, то я бы предложил следующую дорожную карту изменений и запуска направления по качеству данных.

Подготовка

На данном этапе необходимо разработать стратегию и план запуска этой функции, чтобы к тому моменту, когда у бизнеса сформируется запрос и потребность, вы были готовы.

Проведите анализ мировых и отраслевых практик, опишите цели компании и ключевые задачи, выполнение которых поможет достигнуть цели компании.

Сформулируйте видение организационной структуры, желательно 2–3 варианта с распределением зон ответственности (полностью своя команда; с частичным аутсорсом; с полным выводом), с плюсами и минусами.

Управление данными. Почему важно наводить порядок в хранилищах

Опишите дорожную карту и портфель технологических и организационных проектов с приоритетами для запуска функции, с централизованным управлением в начале и постепенным переводом в децентрализованное.

Особое внимание я рекомендую уделить проработке трех проектов (заранее подготовить качественные паспорта проектов).

Первый — внедрение системы описания бизнес-процессов (BPM). Сначала нужна «рисовалка», в которой можно описывать процессы, формировать единое хранилище регламентов и инструкций. Однако надо заранее держать в голове, что это должно быть на базе решения, которое потом можно интегрировать с другими ИТ-системами, автоматизировать взаимодействие между системами в рамках бизнес-процессов. Здесь, скорее всего, ИТ-службе придется выступить лидером и вести направление по выстраиванию процессов. Аргументация этого тоже довольно простая: вы будете экономить ресурсы на других ИТ-проектах, ведь без описания процессов автоматизация невозможна в целом. А так вы будете и в бизнесе порядок наводить, и расставлять приоритеты между ИТ-проектами на основе процессов (появится понимание, какие проекты приносят больше эффект). Например, я это делаю уже по умолчанию и в первую очередь приглашаю специалиста, который начинает описывать бизнес-процессы.

Второй — описание потоков данных. Это можно аргументировать снижением количества/дублирования ввода данных (и, следовательно, нагрузки на людей). Также это покажет, для каких данных та или иная ИТ-система является мастер-системой. Здесь полезно взять в союзники службу безопасности — на базе этого проекта они смогут выстраивать свои регламенты и процессы.

После этого нужно подготовиться к внедрению МДМ-решения (система управления НСИ). Да, так или иначе нам придется начинать с управления НСИ.

Внедрение изменений

Здесь я бы придерживался концепции CDO и помнил о четырех уровнях управления данными.

Организационная структура может выглядеть следующим образом:

Уровень «CDO 1.0» — создание единой корпоративной модели данных

Ключевые роли: архитектор данных, команда качества данных.

Ключевые задачи: разработка политики работы с данными, правил сбора и контроля качества данных, определение владельцев и потребителей данных, создание хранилища данных.

Уровень «CDO 2.0» — использование бизнес-аналитики для управления и принятия решений

Ключевые роли: группа бизнес-аналитики и методологии расчета бизнес-показателей (метрик).

Ключевые задачи: выработать единые метрики и понимание этих метрик у разных бизнес-подразделений, правила подготовки управленческой отчетности и аналитики, сформировать культуру принятия решений на основе данных.

Уровень «CDO 3.0» — исследования и выдвижение гипотез на основе данных для поиска новых источников прибыли, развития продуктов.

Ключевые роли: исследователи и аналитики данных.

Ключевые задачи: научиться ставить гипотезы, анализировать и визуализировать данные, внедрить инструменты обработки данных.

Уровень «CDO 4.0» — создание новых продуктов и сервисов на основе данных, стратегия компании на основе данных.

Ключевые роли: группа по разработке стратегии.

Ключевые задачи: интегрировать анализ данных и продуктовое управление, поиск новых взаимосвязей.

Дам еще несколько рекомендаций.

Определите, какие источники данных уже есть в процессах, чего не хватает, какие данные генерируются в результате исполнения процессов. Подумайте, какие метрики можете использовать уже сейчас и какие процессы приоритетны для цифровизации и автоматизации. Проведите моделирование сценариев, где и какие данные можете применять, определите метрики. Проводите мозговые штурмы за круглым столом. Как, например, использовать данные HR, чтобы дополнительно оценивать эффективность отдела эксплуатации?  На основе встреч проработайте модель данных и стейкхолдеров. Определите критерии качества, которым должны соответствовать эти данные. Определите, как вы будете хранить данные? Что вам подойдет больше: хранилище или озеро данных? Проведите обучение сотрудников работе с данными и справочниками: что такое справочники, зачем обеспечивать их единство. Люди собирают и вносят первичные данные и НСИ, от них зависит очень многое. Прививайте культуру работы с данными и активно применяйте визуализацию перед сбором данных в шаблоны. Это поможет избежать 70–80% ошибок, которые совершают сотрудники при заполнении шаблонов. Вы сэкономите кучу времени и денег. Регулярно ведите контроль качества данных, встречайтесь и обсуждайте возникшие проблемы и причины, необходимые изменения на уровне процессов и доработок систем. А еще определитесь, будете ли вы принимать решения на основе или с учетом данных? Где нужен Data-driven-, где Data-informed-, а где Data-inspired-подход? Это также формирует требования к качеству данных.

А поможет ли нам искусственный интеллект?

Что касается ИИ, то на данный момент отработанных решений нет, но в ближайшие несколько лет я ожидаю появления решений, которые смогут заменить дата-стюардов.

Однако уже сейчас есть интересные кейсы. Например, в рамках создания одного из общих центров обслуживания (корпорация с более десятью тысячами сотрудниками) ИИ скормили весь пул договоров. В итоге через 2 часа он сформировал первую версию корпоративных справочников на базе данных из этих договоров. Так что да, отдельные задачи ИИ уже может решать, но до комплексных систем ему далеко.

Также его можно применять для проектирования требований к процессам. Но все это лишь крутой инструмент и ассистент в руках специалистов высокой квалификации. ИИ не станет волшебной палочкой, которая все сделает за нас.