Оценить:
 Рейтинг: 0

Цифровая трансформация для директоров и собственников. Часть 1. Погружение

Год написания книги
2022
<< 1 ... 8 9 10 11 12 13 14 >>
На страницу:
12 из 14
Настройки чтения
Размер шрифта
Высота строк
Поля

Знакомство с машинным обучением можно начинать с AUTO ML, его бесплатной версией, или DSaaS с проведением первичного аудита, консалтинга и разметкой данных. При этом даже разметку данных можно получить бесплатно. Всё это снижает порог вхождения.

Также будут создаваться отраслевые нейросети. В том числе всё активнее будет развиваться направление рекомендательных сетей.

Большие данные (Big Data)

Большие данные (big data) – совокупное название структурированных и неструктурированных данных. Причём в таких объёмах, которые просто невозможно обработать в ручном режиме.

Часто под этим ещё понимают инструменты и подходы к работе с такими данными: как структурировать, анализировать и использовать для конкретных задач и целей.

Неструктурированные данные – это информация, которая не имеет заранее определённой структуры или не организована в определённом порядке.

Области применения

• Оптимизация процессов

Например, крупные банки используют большие данные, чтобы обучать чат-бота – программу, которая может заменить живого сотрудника на простых вопросах, а при необходимости переключит на специалиста. Или выявление потерь, которые генерируются этими процессами.

• Подготовка прогнозов

Анализируя большие данные о продажах, компании могут предсказать поведение клиентов и покупательский спрос в зависимости от времени года или расположения товаров на полке. Также они используются, чтобы спрогнозировать отказы оборудования.

• Построение моделей

Анализ данных об оборудовании помогает строить модели наиболее выгодной эксплуатации или экономические модели производственной деятельности.

Источники сбора Big Data

• Социальные – все загруженные фото и отправленные сообщения, звонки, в общем всё, что делает человек в Интернете.

• Машинные – генерируются машинами, датчиками и «интернетом вещей»: смартфоны, умные колонки, лампочки и системы умного дома, видеокамеры на улицах, метеоспутники.

• Транзакционные – покупки, переводы денег, поставки товаров и операции с банкоматами.

• Корпоративные базы данных и архивы. Хотя некоторые источники не относят их к Big Data. Тут возникают споры. И ключевая проблема – несоответствие критериям «обновляемости» данных. Подробнее об этом чуть ниже.

Категории Big Data

• Структурированные данные. Имеют связанную с ними структуру таблиц и меток. Например, таблицы Excel, связанные между собой.

• Полуструктурированные или слабоструктурированные данные. Не соответствуют строгой структуре таблиц и отношений, но имеют «метки», которые отделяют смысловые элементы и обеспечивают иерархическую структуру записей. Например, информация в электронных письмах.

• Неструктурированные данные. Вообще не имеют никакой связанной с ними структуры, порядка, иерархии. Например, обычный текст, как в этой книге, файлы изображений, аудио и видео.

Обрабатывают такие данные на основе специальных алгоритмов: сначала данные фильтруются по условиям, которые задаёт исследователь, сортируются и распределяются между отдельными компьютерами (узлами). После этого узлы параллельно рассчитывают свои блоки данных и передают результат вычислений на следующий этап.

Характеристики больших данных

По разным источникам, большие данные характеризуются тремя, четырьмя, а по некоторым мнениям пятью, шестью и даже восемью компонентами. Но давайте остановимся на самой, как мне кажется, разумной концепции из 4 компонентов.

• Volume (объём): информации должно быть много. Обычно говорят о количестве от 2 терабайт. Компании могут собирать огромное количество информации, размер которой становится критическим фактором в аналитике.

• Velocity (скорость): данные должны обновляться, иначе они устаревают и теряют ценность. Практически всё происходящее вокруг нас (поисковые запросы, социальные сети) производит новые данные, многие из которых можно использовать для анализа.

• Variety (разнообразие): генерируемая информация неоднородна и может быть представлена в различных форматах: видео, текст, таблицы, числовые последовательности, показания датчиков.

• Variety (достоверность): качество анализируемых данных. Они должны быть достоверными и ценными для анализа, чтобы им можно было доверять. Также данные с низкой достоверностью содержат высокий процент бессмысленной информации, которая называется шумом и не имеет ценности.

Ограничения на пути внедрения Big Data

Основное ограничение – качество исходных данных, критическое мышление (а что мы хотим увидеть? какие боли? – для этого делаются онтологические модели), правильный подбор компетенций. Ну, и самое главное – люди. Работой с данными занимаются дата-саентисты. И тут есть одна расхожая шутка: 90% дата-сайентистов – это дата-сатанисты.

Цифровые двойники

Цифровой двойник – это цифровая/виртуальная модель любых объектов, систем, процессов или людей. По своей концепции она точно воспроизводит форму и действия физического оригинала и при этом синхронизирована с ним. Погрешность между работой двойника и реальным объектом не должна превышать 5%.

При этом надо понимать, что создать абсолютный цифровой двойник практически невозможно, поэтому важно определить, какую область рационально моделировать.

Впервые концепцию цифрового двойника описал в 2002 году Майкл Гривс, профессор Мичиганского университета. В книге «Происхождение цифровых двойников» он разложил их на три основные части:

• физический продукт в реальном пространстве;

• виртуальный продукт в виртуальном пространстве;

• данные и информация, которые объединяют виртуальный и физический продукт.

Сам же цифровой двойник может быть:

• прототипом – аналогом реального объекта в виртуальном мире, который содержит все данные для производства оригинала;

• экземпляром – историей эксплуатации и данными обо всех характеристиках физического объекта, включая 3D-модель, экземпляр действует параллельно с оригиналом;

• агрегированным двойником – комбинированной системой из цифрового двойника и реального объекта, которыми можно управлять и обмениваться данными из единого информационного пространства.

Наибольшее развитие технология приобрела благодаря развитию искусственного интеллекта и удешевлению интернета вещей. Цифровые двойники стали получать «чистые» большие данные о поведении реальных объектов, появилась возможность предсказывать отказы оборудования задолго до происшествий. И хотя последний тезис довольно спорный, это направление активно развивается.

В результате цифровой двойник является синергией 3D-технологий, в том числе дополненной или виртуальной реальности, искусственного интеллекта, интернета вещей. Это синтез нескольких технологий и фундаментальных наук.

Сами по себе цифровые двойники можно разделить на 4 уровня.

• Двойник отдельного узла агрегата моделирует работу наиболее критичного узла агрегата. Это может быть конкретный подшипник, щётки электродвигателя, обмотка статора или электродвигатель насоса. В общем, тот узел, который имеет наибольший риск отказа.

• Двойник агрегата моделирует работу всего устройства. Например, газотурбинная установка или весь насос.

• Двойник производственной системы моделирует несколько активов, связанных воедино: производственную линию или весь завод.

• Двойник процесса – здесь речь идёт уже не о «железках», а о моделировании процессов. Например, при внедрении MES- или APS-систем. О них поговорим в следующей главе.

Какие же задачи позволяет решить технология цифрового двойника?
<< 1 ... 8 9 10 11 12 13 14 >>
На страницу:
12 из 14