Оценить:
 Рейтинг: 0

Применения элементов искусственного интеллекта на транспорте и в логистике

<< 1 2 3 >>
На страницу:
2 из 3
Настройки чтения
Размер шрифта
Высота строк
Поля

В ту эпоху ученые, занимающиеся искусственным интеллектом, также начали работу над алгоритмами, чтобы научить компьютеры учиться на собственном опыте – концепция, аналогичная тому, как учится человеческий мозг. Между тем, параллельно, большое количество ученых-информатиков разработало методы поиска, которые могли решать сложные проблемы путем поиска огромного количества возможных решений.

Сегодня исследования искусственного интеллекта по-прежнему сосредоточены на автоматизации определенных задач. Такой упор на автоматизацию когнитивных задач получил название «узкий ИИ». Многие исследователи, работающие в этой области, работают над распознаванием лиц, переводом языков, игрой в шахматы, сочинением музыки, вождением автомобилей, компьютерными играми и анализом медицинских изображений. Ожидается, что в течение следующего десятилетия узкий ИИ разовьет более специализированные и развитые приложения, включая компьютерную систему, которая сможет обнаруживать ранние стадии болезни Альцгеймера и анализировать раковые образования.

В 2010-х годах возникнет сообщество машинного обучения, в котором исследования в области искусственного интеллекта перешли от академических кругов к корпорациям, а от проектов военной обороны к основным предприятиям.

Общественность использует искусственный интеллект и взаимодействует с ним каждый день, но ценность ИИ в образовании и бизнесе часто упускается из виду. ИИ обладает значительным потенциалом практически во всех отраслях, например в фармацевтике, производстве, медицине, архитектуре, юриспруденции и финансах.

Компании уже используют искусственный интеллект для улучшения услуг, повышения качества продукции, снижения затрат, улучшения обслуживания клиентов и экономии денег на центрах обработки данных. Например, с помощью программного обеспечения для роботов Southwest Airlines и Amadeus могут лучше отвечать на вопросы клиентов и использовать отчеты, созданные клиентами, для повышения своей производительности. В целом в ближайшие десятилетия ИИ затронет почти каждую отрасль. В среднем около 90% рабочих мест в США будут затронуты ИИ к 2030 году, но точный процент зависит от отрасли.

Искусственный интеллект может значительно улучшить многие аспекты нашей жизни. Существует большой потенциал для улучшения здравоохранения и лечения заболеваний и травм, восстановления окружающей среды, личной безопасности и многого другого. Этот потенциал вызвал много дискуссий и споров о его влиянии на человечество. Было показано, что ИИ намного превосходит людей в различных задачах, таких как машинное зрение, распознавание речи, машинное обучение, языковой перевод, компьютерное зрение, обработка естественного языка, распознавание образов, криптография, шахматы.

Многие фундаментальные технологии, разработанные в 1960-х, были в значительной степени заброшены к концу 1990-х, оставив пробелы в этой области. Фундаментальные технологии, которые определяют сегодня ИИ, такие как нейронные сети, структуры данных и т. д. Многие современные технологии искусственного интеллекта основаны на этих идеях и обладают гораздо большими возможностями, чем их предшественники. Из-за медленных темпов изменений в технологической индустрии, хотя текущие достижения привели к некоторым интересным и впечатляющим результатам, их мало чем отличить друг от друга.

Ранние исследования искусственного интеллекта были сосредоточены на изучении обучающихся машин, которые использовали базу знаний для изменения своего поведения. В 1970 году Марвин Мински опубликовал концептуальный документ о машинах LISP. В 1973 году Тьюринг предложил похожий язык, названный ML, который, в отличие от LISP, распознал подмножество конечных и формальных множеств для включения.

В последующие десятилетия исследователи смогли усовершенствовать концепции обработки естественного языка и представления знаний. Этот прогресс привел к развитию повсеместных технологий обработки естественного языка и машинного перевода, используемых сегодня.

В 1978 году Эндрю Нг и Эндрю Хси написали влиятельную обзорную статью в журнале «Nature», содержащую более 2000 статей по ИИ и роботизированным системам. В документе были рассмотрены многие аспекты этой области, такие как моделирование, обучение с подкреплением, деревья решений и социальные сети.

После этого привлекать исследователей к обработке естественного языка становилось все труднее, а новые достижения в области робототехники и цифрового зондирования превзошли современное состояние обработки естественного языка.

В начале 2000-х большое внимание уделялось внедрению машинного обучения. Алгоритмы обучения – это математические системы, которые обучаются в процессе наблюдений.

В 1960-х Бендиксон и Руэль начали применять концепции обучающих машин в образовании и за его пределами. Их нововведения вдохновили исследователей на дальнейшее изучение этой области, и в 1990-х годах в этой области было опубликовано множество исследовательских работ.

В статье Сумита Чинтала 2002 года «Обучение с помощью поддельных данных» обсуждается система обратной связи, в которой искусственный интеллект обучается, экспериментируя с данными, которые он получает в качестве входных данных.

В 2006 году Юдофски, Штайн и Такер опубликовали статью о глубоком обучении, в которой предложили архитектуру масштабируемых глубоких нейронных сетей.

В 2007 году Рохит описал «гиперпараметры». Термин «гиперпараметр» используется для описания математической формулы, которая используется в процессе компьютерного обучения. Хотя можно разработать системы с десятками, сотнями или тысячами гиперпараметров, количество параметров необходимо тщательно контролировать, поскольку перегрузка системы слишком большим количеством гиперпараметров может привести к снижению производительности.

Соучредители Google Ларри Пейдж и Сергей Брин опубликовали статью о будущем робототехники в 2006 году. В этот документ включен раздел о разработке интеллектуальных систем с использованием глубоких нейронных сетей. Пейдж также отметил, что эта область не была бы практичной без широкого спектра базовых технологий.

В 2008 году Макс Ядерберг и Шай Халеви опубликовали «Глубокую речь». В ней представлена технология «Deep Speech», которая позволяет системе определять фонемы разговорного языка. Система вводила четыре предложения и могла выводить предложения, которые были почти грамматически правильными, но имели неправильное произношение нескольких согласных. Deep Speech была одной из первых программ, которая научилась говорить и оказала большое влияние на исследования в области обработки естественного языка.

В 2010 году Джеффри Хинтон описывает взаимосвязь между дизайном, ориентированным на человека, и областью обработки естественного языка. Книга была широко цитирована, потому что она представила область исследований искусственного интеллекта, ориентированного на человека.

Примерно в то же время Клиффорд Насс и Герберт А. Саймон подчеркнули важность дизайна, ориентированного на человека, при создании систем искусственного интеллекта и изложили ряд принципов проектирования.

В 2014 году Хинтон и Томас Клювер описывают нейронные сети и используют их для построения системы, способной транскрибировать речь человека с заячьей губой. Система транскрибирования показала значительное улучшение точности распознавания речи.

В 2015 году Нил Якобштейн и Арун Росс описывают фреймворк TensorFlow, который сейчас является одним из самых популярных фреймворков машинного обучения, ориентированного на данные.

В 2017 году Фей-Фей Ли подчеркивает важность глубокого обучения в науках о данных и описывает некоторые исследования, которые были выполнены в этой области.

Искусственные нейронные сети и генетические алгоритмы

Искусственные нейронные сети (ИНС), обычно называемые просто алгоритмами глубокого обучения, представляют собой смену парадигмы в искусственном интеллекте. У них есть возможность изучать концепции и отношения без каких-либо заранее определенных параметров. ИНС также способны изучать неструктурированную информацию, выходящую за рамки требований установленных правил. Первоначальные модели ИНС были построены в 1960-х годах, но в последнее десятилетие их исследования активизировались.

Рост вычислительной мощности открыл новый мир вычислений благодаря разработке сверточных нейронных сетей (CNN) в начале 1970-х годов. В начале 1980-х Станислав Улам разработал функцию символического расстояния, которая стала основой для будущих алгоритмов сетевого обучения.

К концу 1970-х годов в ImageNet развернуто несколько CNN. В начале 2000-х годов графические процессоры, основанные на обработке данных с плавающей запятой, обеспечивали экспоненциальную производительность и низкое энергопотребление для обработки данных. Появление алгоритмов глубокого обучения является следствием применения более общих вычислительных архитектур и новых методов обучения нейронных сетей.

Благодаря последним достижениям в области многоядерных процессоров и графических процессоров обучение нейронных сетей с несколькими графическими процессорами (ГП) возможно за небольшую часть стоимости обычного обучения. Один из самых популярных примеров – глубокое обучение на графических процессорах. Обучение глубоких нейронных сетей на графических процессорах происходит быстро, масштабируемо, а также требует возможностей низкоуровневого программирования для реализации современных архитектур глубокого обучения.

Оптимизация генетических алгоритмов может быть эффективным методом поиска перспективных решений проблем информатики.

Методы генетического алгоритма обычно реализуются в среде моделирования, и многие общие проблемы оптимизации могут быть решены с помощью стандартного программного обеспечения библиотеки, такого как PowerMorph или Q-Learning.

Традиционные программные приложения на основе генетических алгоритмов требуют наличия обученного эксперта для программирования и настройки своего агента. Для обеспечения возможности автоматического создания сценариев программное обеспечение с генетическим алгоритмом может распространяться в виде исполняемого исходного кода, который затем может компилироваться обычными пользователями.

Генетические алгоритмы оптимизированы для известных решений, которые могут быть любого типа (например, целочисленный поиск, матричная факторизация, разбиение и т. д.). Напротив, оптимизация Монте-Карло требует, чтобы оптимальное решение могло быть сгенерировано неизвестным методом. Преимущество генетических алгоритмов перед другими методами оптимизации заключается в их автоматическом контроле над количеством необходимых поколений, начальными параметрами, функцией оценки и вознаграждением за точные прогнозы.

Важным свойством генетического алгоритма является его способность создавать надежную, «дикую» конфигурацию параметров (например, чередование горячих и холодных конечных точек), что соответствует заданной скорости обучения (скорость обучения, умноженная на количество поколений). Это свойство позволяет пользователю анализировать и решать, является ли конфигурация равновесия нестабильной.

Обратной стороной генетических алгоритмов является их зависимость от распределенного управления памятью. Хотя обширные методы оптимизации могут использоваться для обработки больших наборов входных данных и работы с несколькими конфигурациями процессоров / ядер, сложность этой операции может сделать решения на основе генетических алгоритмов уязвимыми для ограничений ресурсов, которые препятствуют прогрессу. Даже при наличии кода генетического алгоритма теоретически программы на основе генетических алгоритмов могут находить решения проблем только при запуске на соответствующей компьютерной архитектуре. Примеры проблем, связанных с генетическим алгоритмом, работающим на более ограниченной архитектуре, включают ограничения размера памяти для хранения представлений генетического алгоритма, ограничения памяти, налагаемые базовой операционной системой или набором инструкций, и ограничения памяти, налагаемые программистом, такие как ограничения на объем вычислительной мощности, выделяемой для генетического алгоритма и / или требований к памяти.

Было разработано множество алгоритмов оптимизации, которые позволяют генетическим алгоритмам эффективно работать на ограниченном оборудовании или на обычном компьютере, но реализации генетических алгоритмов на основе этих алгоритмов были ограничены из-за их высоких требований к специализированному оборудованию.

Гетерогенное оборудование способно предоставлять генетические алгоритмы со скоростью и гибкостью обычного компьютера, используя при этом меньше энергии и компьютерного времени. Большинство реализаций генетических алгоритмов основаны на подходе генетической архитектуры.

Генетические алгоритмы можно рассматривать как пример дискретной оптимизации и теории вычислительной сложности. Они дают краткое объяснение эволюционных алгоритмов. В отличие от алгоритмов поиска, генетические алгоритмы позволяют контролировать изменение параметров, влияющих на производительность решения. Для этого генетический алгоритм может изучить набор алгоритмов поиска оптимального решения. Когда алгоритм сходится к оптимальному решению, он может выбрать алгоритм, который работает быстрее или точнее.

На математическом языке программного анализа генетический алгоритм – это функция, которая отображает состояния в переходы к следующим состояниям. Состояние может быть отдельным местом в общем пространстве или набором состояний. «Генерация» – это количество состояний и переходов между ними, которые необходимо выполнить для достижения целевого состояния. Генетический алгоритм использует вероятность перехода, чтобы найти оптимальное решение, и использует небольшое количество новых мутаций каждый раз, когда поколение завершается. Таким образом, большинство мутаций являются случайными (или квазислучайными) и поэтому могут игнорироваться генетическим алгоритмом для проверки поведения или принятия решений. Однако, если алгоритм может быть использован для решения задачи оптимизации, то можно использовать этот факт для реализации шага мутации.

Вероятности перехода определяют параметры алгоритма и имеют решающее значение для определения устойчивого решения. В качестве простого примера, если бы было нестабильное решение, но можно было бы пройти только через определенные состояния, тогда алгоритм поиска решения мог бы столкнуться с проблемами, поскольку механизм мутаций будет способствовать изменению направления движения алгоритма. Другими словами, проблема перехода из одного стабильного состояния в другое будет решена путем изменения текущего состояния.

Другой пример может заключаться в том, что существует два состояния, «холодное» и «горячее», и что для перехода между этими двумя состояниями требуется определенное время. Чтобы перейти из одного состояния в другое за определенное время, алгоритм может использовать функцию мутации для переключения между холодным и горячим состояниями. Таким образом, мутации оптимизируют доступное пространство.

Генетические алгоритмы не требуют сложных вычислительных ресурсов или детального управления сетевой архитектурой. Например, генетический алгоритм может быть адаптирован для использования обычного компьютера, если вычислительные ресурсы (память и вычислительная мощность) были ограничены, например, для простоты в некоторых сценариях. Однако, когда генетические алгоритмы ограничены ограничениями ресурсов, они могут рассчитывать только вероятности, что приводит к плохим результатам и непредсказуемому поведению.

Гибридные генетические алгоритмы комбинируют последовательный генетический алгоритм с динамическим генетическим алгоритмом случайным или вероятностным образом. Гибридные генетические алгоритмы повышают эффективность двух методов, сочетая их преимущества, сохраняя при этом важные аспекты обоих методов. Они не требуют глубокого понимания обоих механизмов, а в некоторых случаях даже не требуют специальных знаний в области генетических алгоритмов. Есть много общих генетических алгоритмов, которые были реализованы для разных типов задач. Некоторые известные варианты использования этих алгоритмов включают извлечение фотографий с геотегами из социальных сетей, прогнозирование трафика, распознавание изображений в поисковых системах, генетическое сопоставление между донорами и получателями стволовых клеток и оценку общественных услуг.

Вероятностная мутация – это мутация, при которой вероятность того, что новое состояние будет наблюдаться в текущем поколении, неизвестна. Такие мутации тесно связаны с генетическими алгоритмами и подверженными ошибкам мутациями. Вероятностная мутация – это полезный метод проверки соответствия системы определенным критериям. Например, последовательность операций имеет определенный порог ошибок, который определяется контекстом операции. В этом случае выбор новой последовательности зависит от вероятности получения ошибки.

Хотя вероятностные мутации сложнее детерминированных мутаций, они быстрее, потому что нет риска сбоя. Алгоритм вероятностной мутации, в отличие от детерминированных мутаций, может представлять ситуации, когда наблюдаемая вероятность мутации неизвестна. Однако, в отличие от алгоритма вероятностной мутации, в реальном генетическом алгоритме необходимо указать параметры.

На практике вероятностные мутации могут быть полезными, если наблюдаемая вероятность каждой мутации неизвестна. Сложность выполнения вероятностных мутаций увеличивается по мере того, как генерируется больше мутаций и чем выше вероятность каждой мутации. Из-за этого вероятностные мутации имеют то преимущество, что они более полезны в ситуациях, когда мутации происходят часто, а не только в разовых ситуациях. Поскольку вероятностные мутации, как правило, протекают очень медленно и имеют высокую вероятность неудачи, вероятностные мутации могут быть полезны только для систем, которые могут подвергаться очень высокой скорости мутации.

Также существует множество гибридных мутационных / генетических алгоритмов, которые способны генерировать детерминированные или вероятностные мутации. Некоторые варианты генетических алгоритмов использовались для создания музыки для композиторов с использованием генетического алгоритма.

Вдохновленные общей техникой, Харальд Хельфготт и Альберто О. Динеи разработали алгоритм под названием MUSICA, который генерирует музыку из последовательностей первого, второго и третьего байтов песни. Их алгоритм генерирует музыку из композиции расширенного аккорда из шести частей. Их алгоритм производит последовательность байтовых значений для каждого элемента расширенного аккорда, и начальное значение может быть либо первым байтом, либо вторым байтом.

В апреле 2012 года исследователи из Гарвардского университета опубликовали исследование «Эффективный дизайн музыкального генома с гарантированным качеством», в котором описывается подход с использованием генетического алгоритма для создания музыкальных произведений.

Компьютерный ученый Мартин Ваттенберг предложил доказательство концепции инструмента на основе генетического алгоритма, способного не только создавать музыкальные исполнения, но и сочинять их. Его инструмент вместо того, чтобы случайным образом изменять элементы исполнения, сохранял бы определенные аналогичные элементы постоянными. Он будет выполнять как «традиционную» музыкальную игру, так и «гармонизирующую» функцию. Инструмент Ваттенберга был бы более точным, и можно было бы составить одну и ту же пьесу с помощью множества различных генеративных алгоритмов, каждый с разными эффектами. Технология, которая производит инструменты, станет доступной для музыкантов, что позволит им ввести музыкальную фразу в инструмент и заставить его сыграть законченную исполнительскую версию.

Подобно современной электронной музыке, инструменты, которые генерируют музыку, также могут использоваться для управления светом, звуком, видео или дисплеями.
<< 1 2 3 >>
На страницу:
2 из 3

Другие электронные книги автора Александр Владимирович Корпуков