Оценить:
 Рейтинг: 0

Машинное обучение на практике – от модели PyTorch до Kubeflow в облаке для BigData

Год написания книги
2020
Теги
1 2 3 >>
На страницу:
1 из 3
Настройки чтения
Размер шрифта
Высота строк
Поля
Machine learning – от модели PyTorch до Kubeflow в облаке для BigData
Евгений Сергеевич Штольц

В этой книге главный Архитектор Департамента Архитектуры Управления Технической Архитектуры (Центра Облачных Компетенций Cloud Native и Корпортивного университета архитекторов) Сбербанка делится знаниями и опытом с читателей в области ML. полученных в работе Школе архитекторов и. Автор: * проводит читателя через процесс создания, обучения и развития нейронной сети, показывая детально на примерах * повышает кругозор, показывая, какое она может занимать место в BigData с точки зрения Архитектора * знакомит с реальным моделей использование в продуктовой среде

Евгений Штольц

Machine learning – от модели PyTorch до Kubeflow в облаке для BigData

О книге

Книга состоит из разделов:

* Введение Machine learning.

* Как пишутся сети.

* Создаём первую сеть. Создаём простую нейросеть на PyTorch.

* Улучшаем распознаванию на цветных картиночках. Здесь демонстрируется обучение и работа сети для

цветных картинок, методы повышения качества предсказаний сети.

* Современные архитектуры сетей. Приводятся архитектурные принципы для улучшения своих сетей.

* Использование предобученных сетей. Демонстрируется использование в своих сетях уже обученных слов.

* Масштабирование ML. Приводится примеры подготовки окружения для запуска их в облачной инфраструктуре.

* Получение данных от BigData. Рассказывается как можно из Jupyter подключаться к различным источникам

данных, в том числе BigData, для обучения моделей.

* Подготовка больших данных. В этом разделе описываются BigData технологии, такие как Hadoop и Spark, которые

являются источниками данных для обучения моделей.

* ML в промышленной среде. В этом разделе рассказываются о таких системах, как Kubeflow и MLflow.

Введение Machine learning

Искусственный интеллект область на стыке многих наук. Один из способов его достичь – машинное обучение, когда мы подаём него данных и на их основе происходит обучение нахождению решений и выявление закономерностей и данных, ранее которых не было. Для обучения могут использоваться статистические алгоритмы, например, на языке R, поиск в глубину на языке Prolog или поиск в ширину на Refal, а также подстраивающиеся структуры – нейронные сети. Нейронные сети, в зависимости от задач, скроются по разным принципам, имеют структуру и по разному обучаются. В последнее время наибольший прорыв получили нейронные сети представления данных (Representation learning), занимающиеся выявлении в информации закономерностей, так как саму информацию из-за её размеров они не могут запомнить. Больших эфект дают глубокие нейронные сети, имеющие множество уровней признаков, признаки на последующих уровнях строются на основании признаков с предыдущих уровней, о них и пойдёт речь в этой главе.

Под машинным обучением (Machine learning, ML) понимается адаптация преобразования входных данных в выходные в зависимости от истории решений. Такой класс задач решается или алгоритмическим способом, или с помощью нейронных сетей, о том где какое решение и в какой ситуации лучше применять далее и пойдёт речь. Для примера возьмём прописные числа от нуля до девяти, которые мы будет сопоставлять с печатными. Если прописные точно попадают в контур – то всё просто, нам нужно просто перебрать контура печатных и получить подходящий вариант. Такая задача не относится задачам машинного обучения. Теперь усложним задача – числа у нас не точно попадают под шаблон. Если прописные числа немного не вписываются в контур – мы просто находим какое-то отклонение. И тут возникает сложность при категоризации прописного числа на ноль и девятку, когда размер хвостика отделяет небрежное написание нуля от девятки. Другой момент в катогоризации восьмёрки и девятки. Так, если кончик отгибается – это десятка, а если загибается и прикасается – то восьмёрка. Для решения подобной ситуации нужно разделить цифру на области и в зависимости и присвоить им разные коэффициенты. Так, соединение хвостика нижней части имеет очень высокое значение, нежели форма самих окружностей в классификации на восьмёрки и девятки. Определить помогут статистические данные по заранее данной выборки соответствия фигур восьмёркам и девяткам, где исследователь сможет определить, когда уже можно высчитать нижнее кольцо замкнутым и говорить об соответствии восьмёрке фигуры, а когда нет и говорить о соответствии девятке. Но мы может программным способом разделить цифры на сектора и присвоить им коэффициенты.

Другой сложностью может быть то, что цифра может быть не в наблюдаемой области, а в произвольной, например, в углу. Для анализа самой цифры нам нужно переместить анализирующее окно в то место, где находится цифра. Для простоты пока будем полагать, что габариты анализирующего окна равны габаритам исследуемой цифры. Для решения этой задачи перед сетью ставят анализирующий слой, образующий карту нахождения цифры. Задача этого слоя определить местоположение цифры на картинке. Для простоты возьмём чёрный изображение на белом листе. Нам нужно пройтись анализатором цифры построчно по всему листку и определить местоположения. В качестве индикатора возьмём площадь чёрного цвета на индикаторе. После прохождения по листку бумаги и определения площади мы получим матрицу с цифрами площадей чёрного цвета. Где площадей чёрного цвета больше – в том месте цифра максимально вписалась в индикатор. Преобразование картинки в матрицу площадей называется операцией свёртки, а если это выполняет нейронный слой – свёрточный слой. Нейронные сети, в которых присутствует свёрточный слой (Conv Layers) называются свёрточными нейронными сетями (Convolutional Neural Network, CNN). Такие сети используют при распознавании изображения, ныне их адаптировали для распознования речи. Принцип работы был позаимствован у биологического зрительного нерва.

Если изображение не только находится в производном месте, но и имеются другие изображения, то для определения и потребуется несколько слоёв нейронной сети для выполнения определения, результатом чего будет являться также карта расположения цифры, но принятие решения об её нахождения нужно её идентифицировать. Таким образом, первый слой будет иметь количество нейронов отображающих карты, что по горизонтали и вертикали будет соответствовать ширине и высоте листка минут соответствующую ширину и высоту анализирующего экрана делённую на шаг сдвига анализирующего окна. Размерность второго же слоя в нейронах равна размерности анализируемого окна, чтобы иметь возможность по идентификации цифры. Если мы проведём связи от всех нейронов слоя поиска к слою анализирующего окна, то сеть на выходе мы получим набор снимков влитых вместе. Следующий слой будет иметь размерность количеству анализируемых элементов цифр. К примеру, цифру можно представить в виде не полностью закрашенной восьмёрки, тогда, закрашиваемых сегментов будет семь. Все нейроны свёрточного слоя будут связаны со всеми нейронами слоя анализа сегментов цифры. Задача нейрона этого слоя быть связанным с нейронами предыдущего, ответственными за данный сегмент и выдать результат наличия или отсутствия данного сегмента в цифре. Следующий слой имеет состоит из десяти нейронов, соответствующие цифрам от нуля до девяти. Всего его нейроны связаны с предыдущим слоем и активируются при получении сигналов от них. Так, нейрон, ответвленный за цифру один будет активироваться, если получит информацию, что два крайних правых сектора будут активны и не активны все остальные.

На выходе мы получим активацию того выходного нейрона, который соответствует определённой цифре. Он это делает на основе данных получаемых от нейронов с предыдущего слоя, ответственных за сектора цифры, а именно от каких нейронов пришли сигналы, а от каких нет. Возьмём, что приходящие сигналы от нейронов по связям – это ноль, то есть сектор не закрашен, если единица, то значит сектор закрашен. Тогда, веса у связей от правых секторов – половины, что даст единицу, а у остальных – отрицательные, что не даст получить на выходе единицу если ещё какой-то сектор активирован. На выходе нейрона стоит нормализатор, который решает, за принятие решения. Ему необходимо решить, на основе входных данных и весов, отдавать единицу или ноль. Для этого он перемножает входные данные на веса, складывает их, и по пороговому значению выдаёт единицу или ноль. Этот нормализатор нужен дял того, чтобы после суммирования информации приходящей с нейронов, он передал на следущий слой нейронов логическую информацию, степень важности которой будет определяться весами на принимающем нейроне, а не им. Для этого используются функции, которые преобразуют весь диапан уровней входных сигналов в диапазон от нуля до единицы. Такая функция носит название функций активации и подбирается для всей нейронной сети. Есть множества функций, который всё, что меньше единицы считает нулём. Сами веса не кодируются, а подбираются во время обучения. Обучение бывает с учителем (supervised) и без (ansupervised) и они пригодны для разного класса задач. При обучении без учителя мы даём данные на вход нейронов сети о ожидаем, когда она сама найдёт какие-нибудь закономерности, при этом данные не размечены (не имеют каких-то меток по классификации), что позволит выявить ранее неизвестные особенности, сходства и различия,и классифицирует по ещё ненайденным признакам, но как это будет происходить предсказать сложно. Для большинства задач нам нужно получить классификацию по заданным группам, для чего мы на вход подаём обучающую выборку с размеченными данными содержащие метки об правильном решении ( например, классификации, и стараемся добиться совпадения с этой тестовой выборкой. Также может быть с подкреплением (reinforcement), при котором сеть пытается найти наилучшее решение на основе стимулов, например, при игре добиться превосходства перед соперником, но пока, отложим рассмотрение данной стратегии обучения на потом. При обучении с учителем требуется гораздо меньше попыток подобрать вес, но всё же это от нескольких сотен до десятков тысяч, при этом сама сеть содержит огромное количество связей. Для того, чтобы найти веса, мы подбором и направленным уточнения их подбираем. С каждым проходом мы уменьшаем ошибку, и когда точность нас устроила, мы можем подавать тестовую выборку для валидации качества обечения (сеть могла плохо обучиться или переобучиться), после можно использовать сеть. В нашем примере, это могут быть немного искривлены цифры, но благодаря тому, что мы выделяем области, это не сильно сказывается на точности.

При обучении нейрона с учителем мы на него подаёт обучающие сигналы и получаем на выходе результаты. На каждый сигнал входной и выходной мы получает результат о степени ошибки в предсказании. Когда мы прогнали все обучающие сигналы, мы получили набор (вектор) ошибок, который может быть представлен в виде функции ошибок. Эта функция ошибок зависит от входных параметров (весов) и нам нужно найти веса при который эта функции ошибок становится минимальной. Для определения этих весов применяется алгоритм Градиентного спуска, суть которого заключается в постепенном движении к локальному чинимому, а направление движения определяется производной от этой функции и функции активации. В качестве функции активации обычно выбирают сигмойду для обычных сетей или усечённую ReLU для глубоких сетей. Сигмойда на выходе даёт диапазон от нуля до единицы всегда. Усечённая ReLU всё же позволяет при очень больших числах (очень важно информации) на входе передать больше единицы на выход, там сами повлиять на слои, удущие после непосредственно следующим. К примеру, точка над чёрточкой отделяет букву L от буквы i, а информация одного пикселя влияет на принятия решения на выходе, поэтому важно не потерять этот признак и передать его на последний уровень. Разновидностей функций активации не так много – их ограничивает требования к простоте обучения, когда требуется взять производную. Так сигмойда f после произвольно превращается в f(1-f), что эффективно. С Leaky ReLu (усечённая ReLu c утечкой) ещё проще, так она при x < 0 принимает значение 0, то её проводная на этом участке тоже равна 0, а при x >=0 она принимает 0,01*x, что при производной будет будет 0,01, а при x > 1 принимает 1+0,01*x, что для производной даёт 0,01. Вычисление тут вообще не требуется, поэтому обучение происходит сильно быстрее.

Так как на вход функции активации мы подаём сумму произведений сигналов на их веса, то зачатую, нам нужен другой пороговый уровень, чем от 0,5. Мы можем сместить его на константу, прибавляя её к сумме на входе в функцию активации используя нейрон смещения для её запоминания. Он не имеет входов и выдаёт всегда единицу, а само смещение задаётся весом связи с ним. Но, для многонейронных сетей он не требуется, так как сами веса предыдущим слоями подгоняются такого размера (меньшими или отрицательными), чтобы использовать стандартный пороговый уровень – это даёт стандартизацию, но требует большего количества нейронов.

При обучении нейрона нам известна ошибка самой сети, то есть на входных нейронах. На основе них можно рассчитать ошибку в предыдущем слое и так далее до входных – что носит название метода Обратного распространения ошибки.

Сам же процесс обучения можно разделить на этапы: инициализация, само обучение и предсказание.

Если же у нас цифра может быть различного размера, то применяется pooling слои, которые масштабируют изображение в меньшее сторону. По какому алгоритму будет вычисляться то, что будет записано при объединении зависит от алгоритма, обычно это функция max для алгоритма max pooling или avg (среднеквадратичные значение соседних ячеек матрицы) – average pooling.

У нас уже появилось несколько слоёв. Но, в применяемых на практике нейронных сетях их может быть очень много. Сети с количеством слоёв больше четырёх слоёв принято называют глубокими нейронными сетями (DML, Deep ML). Но, их может быть очень много, так в ResNet их 152 штуки и это далеко не самая глубокая сеть. Но, как вы уже заметили, количество слоёв не берётся, по принципу, чем больше, тем лучше, а прототипируется. Излишнее количество ухудшает качество за счёт затухания, если для этого не применять определённые решения, как проброс данных с последующим суммировнием. Примерами архитектур нейронных сетей могут быть ResNeXt, SENet, DenseNet, Inception-Res Net-V2, Inception-V4, Xception, NASNet, MobileNet V2, Shuffle Net и Squeeze Net. Большинство из этих сетей предназначены для анализа изображений и именно изображения, зачастую, содержат наибольшее количество деталей и на эти сети возлагается наибольшее количество операций, чем и обуславливается их глубина. Одну из подобных архитектур мы рассмотрим при создании сети классификации цифр – LeNet-5, созданную в 1998.

Если же нам нужно не просто распознать цифру или букву, а их последовательность, заложенный в них смысл, на нам нужна связь между ними. Для этого нейронная сеть после анализа первой буквы отравляет отравляет на свой вход вместе со следующей буквой результат анализа текущей. Это можно сравнить с динамической памятью, а сеть реализующую такой принцип называют рекуррентной (RNN). Примерами таких сетей (с обратными связями): сеть Кохонена, сеть Хопфилда, ART- модели. Рекуррентной сети анализирует текст, речь, видео информацию, производит перевод с одного языка на другой, генерируют текстовое описание к изображениям, генерируют речь (WaveNet MoL, Tacotron 2), категоризируют тексты по содержанию (принадлежность к спаму). Основным направлением в котором работают исследователя в попытке улучшить в подобных сетях является определить принцип, по которому сеть будет решать какую, на сколько долго и на сколько сильно будет сеть учитывать предыдущую информацию в будущем. Сети, приминающие специализированные инструменты по сохранению информации получили название LSTM (Long-short term memory).

Не все комбинации удачны, какие то позволяют решать только узкие задачи. С ростом сложности, всё меньший процент возможных арзиктур является удачным, и носят свои названия:

* два входа и один выход – Percetron (P)

* два входа, два нейрона полносвязных с выходом и один выход – Feed Forward (FF) или Redial Basics Network (RBN)

* три входа, два слоя по четыре полносвязнных нейрона и два выхода Deep Feed Forward (DFF)

Как пишутся нейронные сети

До 2015 года с большим отрывом лидировала scikit-learn, которую догонял Caffe, но с выходом TensorFlow он сразу стал лидером. Со временим только набирая отрыв с двухкратного на трёхкратней к 2020 году, когда на GitHub набралось более 140 тысяч проектов, а у ближайшего конкурента чуть более 45 тысяч. На 2020 году по убывающей расположились Keras, scikit-learn, PyTorch (FaceBook), Caffe, MXNet, XGBoost, Fastai, Microsoft CNTK (CogNiive ToolKit), DarkNet и ещё некоторые менее известные библиотеки. Наиболее популярными можно выделить библиотеку Pytorch и TenserFlow. Pytorch хорошо для прототипирования, изучения и испробования новых моделей. TenserFlow популярен в производственной среде, а проблема низко уровневости решается Keras.

* FaceBook Pytorch – хороший вариант для обучения и прототипирования из-за высоко уровневости и поддержке различных

сред, динамический граф, может дать приемущества при обучении. Используется в Twitter, Salesforce.

* Google TenserFlow – имел изначально статический граф решения, ныне поддерживается и динамический. Используется в

Gmail, Google Translate, Uber, Airbnb, Dropbox. Для привлечения использования в облаке Google под него

внедряется аппаратный процессор Google TPU (Google Tensor Processing Unit).

* Keras является высокоуровневой настройков, обеспечивающей больший уровень абстракции для TensorFlow, Theano

или CNTK. Хороший вариант для обучения. К примеру, он

позволяет не указывать размерность слоёв, вычисляя её сам, позволяя разработчику сосредоточиться на слоях

архитектуре. Обычно используется поверх TenserFlow. Код на нём поддерживается Microsoft CNTK.

Так же имеются более специализированные фреймворки:

* Apache MXNet (Amazon) и высокоуровневая надстройка для него Gluon. MXNet – фреймворк с акцентом на

масштабирование, поддерживает интеграцию с Hadoop и Cassandra. Поддерживается
1 2 3 >>
На страницу:
1 из 3

Другие электронные книги автора Евгений Сергеевич Штольц