Оценить:
 Рейтинг: 0

Обеспечение фундаментальных прав человека при обработке данных в государственном управлении

Год написания книги
2022
Теги
<< 1 2
На страницу:
2 из 2
Настройки чтения
Размер шрифта
Высота строк
Поля

Помимо этого частные субъекты сотрудничают с правительством в целях создания централизованной кредитной инфраструктуры. Данные частных акторов используются для улучшения центральной кредитной системы, взамен они получают данные из правительственных баз данных[21 - Ibidem.]. Например, многоцелевое приложение для социальных сетей WeChat делится данными миллиарда своих пользователей с правительством Китая, основываясь на различного рода активности пользователей, как, например, социальные взаимодействия и онлайн-покупки. Так, на уровне местных кредитных систем граждане могут проверить свой личный счет, используя WeChat[22 - China’s «social credit» scheme involves cajolery and sanctions, https:// www.economist.com/china/2019/03/28/chinas-social-credit-scheme-involves-cajolery-and-sanctions.].

В литературе встречается точка зрения, согласно которой система социального кредита рассматривается в качестве инфраструктуры наблюдения, включающей практически всех участников общества – должностных лиц, отдельных индивидов, государственные учреждения и корпорации, группы. Ввиду того что генерация данных отделена от анализа данных, третья сторона также становится участником в практике наблюдения, в то время как субъекты данных необязательно знают, как используются их данные. Возможности для наблюдения значительно расширяются, по мере того как правительство использует новые технологии. Такие технологии позволяют осуществлять более тонкое и скрытое наблюдение по сравнению с традиционными инструментами, поскольку политические цели заранее встроены в алгоритмы. В результате владение данными определяет распределение полномочий, а обмен данными приводит к умышленному искажению транспарентности и подотчетности[23 - Liang, Fan, Das, Vishnupriya, Kostyuk, Nadiya, and Hussain, Muzammil M. Constructing a Data-Driven Society: China’s Social Credit System as a State Surveillance Infrastructure//Policy & Internet. – 2018. —Vol. 10. —Is. 4. —P. 415–453.]. Последнее еще более усугубляется алгоритмами машинного обучения, которые обрабатывают поведенческие данные и создают зачетные баллы (кредиты). Система регулируется национальным и местным законодательством, но по-прежнему наблюдается значительное отсутствие надлежащих правовых рамок для защиты конфиденциальности и персональных данных. Кроме того, открытым остается вопрос относительно того, все ли государственные структуры будут подчиняться этой системе или же определенные сегменты высшего руководства Коммунистической партии Китая будут исключены.

Влияние системы социального кредита на права человека. Право на неприкосновенность частной жизни в соответствии с системой социального кредита строго ограничено, поскольку личные подробности частной и общественной жизни людей становятся датафицированными (осуществляется сбор, обработка и использование результатов обработки больших данных) в отсутствие полного согласия с их стороны. Эти данные собирают и тщательно изучают в целях осуществления социального контроля, и правительство может использовать как данные, так и метаданные для прогнозирования и выработки политических решений. В данном контексте отсутствуют право на забвение, а также вопрос повторной идентификации, поскольку в основу данной системы заложено хранение «сокровищницы» личных данных. Это, безусловно, дает Китаю технические преимущества в сфере использования искусственного интеллекта – велика вероятность, что Китай выиграет гонку в сфере цифрового ИИ, поскольку разработчики в области информационных технологий будут иметь неограниченный доступ к данным по крайней мере по сравнению с разработчиками из европейских стран, в которых существуют строгие правила в отношении персональных данных. Однако нельзя сбрасывать со счетов вопросы обеспечения кибербезопасности и защиты данных. Как утверждается, Китай имеет достаточно плохие показатели безопасности данных, в связи с чем личная информация становится легкодоступной, что делает систему социального кредита уязвимой для взлома и незаконного доступа[24 - China’s «social credit» scheme involves cajolery and sanctions, https:// www.economist.com/china/2019/03/28/chinas-social-credit-scheme-involves-cajolery-and-sanctions.].

Таким образом, система социального кредита бросает вызов неприкосновенности частной жизни с точки зрения как сбора данных посредством широко распространенного наблюдения, так и обмена данными между различными организациями, в том числе между частными и публичными субъектами. Цифровые следы используются не только для целевого маркетинга или улучшения онлайн-сервисов, но и для обучения ИИ и информирования правительства о привычках, деятельности и активности людей. Камеры общественного наблюдения с технологией распознавания лиц предоставляют правительству почти полный и постоянный доступ ко всем общественным пространствам, а цифровое наблюдение с помощью крупных технологических компаний доставляет правительству информацию о частной и общественной жизни граждан. Одноранговое наблюдение дает правительству офлайн-доступ к социальным сферам, которые иным образом были бы недоступны. Использование алгоритмов машинного обучения для обработки данных в дополнение к широко распространенной практике обмена данными приводит к тому, что люди теряют право на монопольное использование своей персональной информации[25 - Chen Yon., Cheung A. S. Y. The Transparent Self Under Big Data Profiling: Privacy and Chinese Legislation on the Social Credit System//The Journal of Comparative Law. – 2017.-Vol. 12.-№ 2.-P. 356–378.].

Кроме того, система социального кредита может привести к дискриминационной практике. Прежде всего, несмотря на планы объединения региональных систем в национальную кредитную систему, местные органы власти и администрации все равно будут определять критерии, по которым станут оцениваться отдельные лица. Из-за отсутствия единого стандарта граждане находятся во власти местных органов. В этом случае крестьяне в сельской местности могут пользоваться иной кредитной схемой, чем жители городских районов. По мере перемещения данных между секторами и учреждениями дефекты в данных в одной базе данных могут быть реплицированы во всех базах данных, через которые эти данные проходят. Тем самым любая предвзятость в данных, которая не будет должным образом «сглажена», будет продолжать находиться в потоке данных, а возможно, даже увеличиваться или изменяться в другом контексте[26 - Arsene Severine Trust in Ratings: China’s Social Credit System. http://devl4-7. ysdhk.com/asiaglobalonline/p01/china-social-credit-system/.].

Необходимо также иметь в виду, что получить полностью объективные данные практически невозможно. Таким образом, маркировка данных в качестве «объективных» или «необработанных» может быть вредной, поскольку она явно игнорирует потенциальную предвзятость данных. Одинаково сложно создать объективный алгоритм машинного обучения, с помощью которого можно обрабатывать данные, ранжировать граждан, а также определять, как алгоритм будет реагировать на новые данные. Ясно, что предвзятость может быть смягчена, но для этого ее существование требуется признать, что нехарактерно для Китая[27 - Loge Hanne Haukland Surveillance and human rights in the digital age.A case study of China>s social credit system, https://www.duo.uio.no/hand-le/10852/70583.].

При этом при анализе больших данных некое пренебрежение к необходимости смягчения предвзятости данных может явиться причиной дискриминационных действий, например предиктивной полицейской деятельности. На микроуровне «подозрительные» корреляции, основанные на прогнозах больших данных, могут быть использованы против отдельных лиц, например, невозможность зачисления детей в частную школу из-за низкого социального рейтинга их родителей (что само по себе является одним из примеров косвенной дискриминации в отношении детей). Однако предвидение рисков не работает на индивидуальном уровне, и такая предиктивная полицейская деятельность, скорее всего, будет представлять собой нарушение права на равенство перед законом. В свою очередь на макроуровне система социального кредита может информировать правительство о тенденциях, общественном мнении и возможных проблемах в обществе, что может помочь правительству в прогнозировании социального контроля и выработке политической стратегии[28 - Liang Fan, Das Vishnupriya, Kostyuk Nadiya, and Hussain Muzammil M. Constructing a Data-Driven Society: China’s Social Credit System as a State Surveillance Infrastructure//Policy & Internet. – 2018. —Vol. 10. —Is. 4. —P. 415–453.].

Приведенный нами обзор касательно китайского варианта обработки данных приводит к выводу о том, что его реализация в Российской Федерации невозможна ввиду очевидного конфликта с правами человека, признанными в подписанных Россией (в отличие от Китая) международных актах и имплементированных в гл. 2 российской Конституции, а также распространившихся в отраслевых актах законодательства.

Проанализированные нами в рамках основного исследования зарубежные (американские и европейские) и российские подходы к обеспечению фундаментальных прав человека при обработке данных в государственном управлении можно систематизировать по нескольким направлениям.

1.1. Правовое регулирование использования алгоритмов для обработки данных в государственном управлении

Алгоритм является базовым понятием в проблематике автоматизированной обработки данных. Начнем с того, что алгоритмы существовали задолго до того, как получили свое наименование. Они порождены необходимостью находить быстрые и эффективные решения посредством трансформации данных при помощи точных указаний, применяющихся поэтапно. В принципе обычный кулинарный рецепт – это уже алгоритм, который содержит пошаговую инструкцию для достижения определенного результата. Правовая норма тоже алгоритм, содержащий набор данных, условий их применения в заданной последовательности также для достижения некоего результата (решения определенной проблемы). Выходит, право и алгоритм крайне близки по сути. Если отталкиваться от классических определений – право как система норм, регулирующих отношения между людьми в обществе, и алгоритм как совокупность инструкций, разрешающих проблему, – то понятие алгоритма оказывается более широким. В этом смысле право можно рассматривать как специфический алгоритм (юридический), объединяющий совокупность инструкций, разрешающих проблемы, возникающие из отношений людей в обществе[29 - Duclercq J.-B. Le droit public а Гёге des algorithmes//Revue du droit public. – 2017.-№ 5.-P. 1401–1434.].

Но развитие информационных технологий, успех науки информатики прочно связали понятие алгоритма с информационным обеспечением. Поэтому, произнося слово «алгоритм», мы переносимся в область программирования.

Оксфордский словарь английского языка определяет алгоритм как процесс или набор правил, которым необходимо следовать при осуществлении вычислений или других операций, связанных с решением задач, как правило, с помощью компьютера[30 - Oxford English Dictionary. Definition of algorithm, https://en.oxforddictionaries, com/definition/algorithm.]. В настоящее время под алгоритмом обычно понимают либо фрагмент кода, либо компьютерное приложение, которое может быть использовано в целях оказания содействия человеку в процессе принятия решений или для выполнения действий, не требующих его непосредственного участия[31 - Gillespie T. The Relevance of Algorithms’// Gillespie T., Boczkowski PJ., Foot KA (eds.) Media Technologies: Essays on Communication, Materiality, and Society. – MIT Press, 2014.]. Так, алгоритмы уже используются при вынесении приговоров и принятии решений об условно-досрочном освобождении; для прогнозирования «мест притяжения» криминальной активности в целях содействия органам правопорядка и рационального распределения ресурсов; при персонализации результатов поиска, электронных новостных лент и рекламы; для выявления мошенничества; определения кредитных рейтингов; облегчения набора персонала, а также оказания медицинских и юридических услуг и др. Используются алгоритмы и в сфере государственного управления. В этом смысле особого внимания требуют алгоритмы, которые применяются для поддержки принятия решений. Некоторые из наиболее известных примеров использования алгоритмов связаны с процессом принятия решений, что непосредственно оказывает воздействие на права человека. Один из наиболее часто приводимых примеров в связи с этим – использование алгоритмов для оценки степени риска при вынесении приговоров, учитывая, что такая оценка может иметь прямое отношение к праву человека на свободу и запрету дискриминации[32 - Mcgregor L., Murray D., Ng V International human rights law as a framework for algorithmic accountability//British Institute of International and Comparative Law. – 2019.-Vol. 68.-P. 309–343.]. Подобный кейс будет рассмотрен нами ниже.

Доступность алгоритмов в совокупности с использованием оценки степени риска потенциально может повлиять на права человека, особенно в отношении тех, кто находится в уязвимом положении в ключевых областях жизни (пища, жилище, занятость). Прогнозная аналитика может применяться и для защиты детей. Например, London Council в сотрудничестве с частными поставщиками услуг использует алгоритмы, объединяя данные нескольких агентств, и применяет риск-ориентированный подход для определения вероятности жестокого обращения с ребенком или отсутствия заботы о нем. Сказанное вызывает к жизни вопросы конфиденциальности и защиты данных, а также вопросы, связанные с правом на уважение частной и семейной жизни и дискриминацией. В связи с этим прежде всего необходимо определить, можно ли использовать алгоритм для принятия решений или для содействия в его принятии, если речь идет о конкретной жизненной ситуации. Алгоритмы, управляющие большими данными, – искусственный интеллект или алгоритмы машинного обучения – обычно работают на основе корреляции и статистической вероятности. Однако природа таких алгоритмов, с одной стороны, заключается в генерации результатов, которые описывают поведение группы, но не адаптированы к конкретным людям внутри этой группы, а с другой – не зависит от размера или качества входного набора данных[33 - Benvenisti Е. Upholding Democracy Amid the Challenges of New Technology: What Role for the Law of Global Governance?//European Journal of International Law.– 2018.-Vol. 29.-Is. l.-P. 9-82.].

В целях настоящего исследования нельзя обойти вниманием отправной научно-методологический подход, связанный с правовым осмыслением цифровых технологий в целом и алгоритмов в частности. Если в отношении технологий право «колеблется» между киберлибертарианством (утверждающим, что технологии радикально изменят право и приведут к утрате его значения перед лицом программного кода) и консервативной позицией, считающей, что право с легкостью урегулирует любые цифровые технологии в традиционном ключе, то касательно алгоритмов право изначально занимало позицию регулятора, т. е. право относится к алгоритму как объекту регулирования. При этом в юридическом смысле правовой охране подлежали не сами алгоритмы, а программы. Причем, что особенно важно для государственного управления, происходило это в рамках гражданского права, которое, как известно, распространяется на отношения с участием государства в ограниченном объеме.

Программы для ЭВМ в целях охраны авторским правом в силу указания ст. 1261 ГК РФ и в соответствии с закрепленными на международном уровне подходами условно приравниваются к произведениям литературы. Аналогичное правило предусмотрено в п. 1 ст. 1 °Cоглашения по торговым аспектам прав интеллектуальной собственности, согласно которому компьютерные программы, которые могут быть выражены на любом языке и в любой форме, включая исходный текст и объектный код, подлежат авторско-правовой охране как литературные произведения. Однако необходимо учитывать специфику программ для ЭВМ, которая вытекает из их предназначения – обеспечивать функционирование компьютерных устройств, осуществление определенных алгоритмов и процессов, достижение результатов, имеющих по своей сущности технический характер. Перед литературными произведениями такой задачи не ставится[34 - Близнец И. А., Леонтьев К.Б., Кубышкин А. В. Правовая охрана авторских и смежных прав в Российской Федерации. – М., 2017.].

Алгоритм как последовательность операций является основным компонентом программы, отражая ту главную идею, согласно которой должен работать компьютер. Однако в соответствии с п. 5 ст. 1259 ГК РФ авторские права не распространяются на идеи, концепции, принципы, методы, процессы, системы, способы решения технических, организационных или иных задач, открытия, факты, языки программирования. В итоге алгоритм как таковой лишен правовой защиты, охраняется лишь его реализация в виде последовательности операций и действий над этими операциями[35 - Российское гражданское право: учебник: в 2 т. Т. I. Общая часть. Вещное право. Наследственное право. Интеллектуальные права. Личные неимущественные права ? отв. ред. Е.А. Суханов. —М.: Статут, 2015.]. Это обстоятельство имеет перспективное значение, если иметь в виду использование алгоритмов в государственном управлении в качестве «замены» человека, принимающего решения. В этом смысле алгоритм как бы становится стороной управленческого отношения и «несет обязанности» в отношении граждан, в том числе по соблюдению прав человека.

Тем не менее согласно директиве 91/250/СЕ от 14 мая 1991 г. «О правовой охране компьютерных программ» такая защита предоставлялась только самим программам, но не идеям и принципам, лежащим в основе алгоритма[36 - Директива Совета европейских сообществ от 14 мая 1991 г. № 91/250/ ЕЭС «О правовой охране компьютерных программ», http://base.garant.ru/ 2565722/.]. Это правило сохранилось и в новой директиве 2009/24 от 23 апреля 2009 г.[37 - Директива Европейского парламента и Совета Европейского союза 2009/24/ ЕС от 23 апреля 2009 г. о правовой охране компьютерных программ (кодифицированная версия), http://base.garant.ru/71657620/.]Суд Европейского союза подтвердил изложенную позицию, указав, что защите авторским правом подлежат код-источник (исходный текст) и объектный код компьютерной программы[38 - Court of Justice of the European Union. Annual report. 2010. https://curia.eu-ropa.eu/jcms/upload/docs/application/pdf/2011-05/ra2010_version_integrale_ en.pdf.].

Между тем не только в зарубежных странах, но и в России на практике осуществляется патентование алгоритмов (в качестве изобретений (способа))[39 - Цивилистическая концепция интеллектуальной собственности в системе российского права: монография/ под общ. ред. М. А. Рожковой. – М.: Статут, 2018.]. Программные алгоритмы могут быть запатентованы в качестве изобретений в виде технических решений, относящихся к способу (п. 1 ст. 1350 ГК РФ). Но для этого разработчикам необходимо добиться соответствия решения требованию изобретательского уровня и определить ожидаемый материально-технический результат, которого предполагается достичь за счет данного решения[40 - Ворожевич А. С. Исключительные права в цифровой сфере: объекты, границы, пределы осуществления (комментарий законодательства)//Современные информационные технологии и право: монография/ отв. ред. Е.Б. Лауте. —М.: Статут, 2019.-С. 208–233.].

Таким образом, алгоритмы хорошо знакомы праву в качестве объектов регулирования, но праву гражданскому, частному. Для полноценного использования алгоритмов в государственном управлении необходимо публично-правовое регулирование возникающих отношений, что позволит обеспечить защиту прав граждан посредством публично-правовых механизмов.

Широкое распространение ИКТ и в особенности цифровых технологий, их применение в государственном управлении дали основание для введения алгоритмов в поле публичного права. Любопытно, что понятие «алгоритм» в российских нормативных правовых актах почти не употребляется в его техническом значении, а используется для обозначения порядка действий (например, алгоритм (порядок) взаимодействия заинтересованных органов государственной власти при выявлении противоправного контента в сети Интернет, принятый Роскомнадзором).

В Европе тоже избегают понятия «алгоритм». С 1981 г. используется термин «автоматизированная обработка данных», который напоминает алгоритм по содержанию (совокупность действий): автоматизированная обработка включает следующие операции, осуществляемые полностью или частично с помощью автоматизированных средств: хранение данных, осуществление логических и/или арифметических операций с этими данными, их изменение, уничтожение, поиск или распространение (Конвенция Совета Европы о защите физических лиц при автоматизированной обработке персональных данных от 28 января 1981 г.)[41 - Конвенция Совета Европы о защите физических лиц при автоматизированной обработке персональных данных от 28 января 1981 г.//Доступ из справочно-правовой системы «КонсультантПлюс».].

Нетрудно заметить, что сфера применения автоматизированной обработки данных ограничена персональными данными, т. е. публично-правовая защита сконцентрирована на человеке с его частной жизнью и персональными данными. Собственно, так и произошло право на защиту персональных данных и была заложена традиция «сопротивления» индивидуальным автоматизированным решениям. Так, Регламент № 2018/1725 Европейского парламента и Совета Европейского союза «О защите физических лиц при обработке персональных данных» (п. 43) определяет, что субъект данных должен иметь право не подчиняться решению, которое может включать принятие мер, оценивающих личные аспекты, относящиеся к нему или к ней, которое основывается исключительно на автоматизированной обработке и результатом которого являются юридические последствия в отношении его или ее или которое сходным образом может значительно повлиять на него или на нее, такое как практики электронного подбора кадров без вмешательства человека[42 - Регламент Европейского парламента и Совета Европейского союза 2018/1725 от 23 октября 2018 г. о защите физических лиц при обработке персональных данных, осуществляемой учреждениями, органами, службами и агентствами Союза, и о свободном обращении таких данных, а также об отмене Регламента (ЕС) 45/2001 и Решения 1247/2002/ЕС. http://base.garant.ru/72759520/.].

В русле европейских правовых позиций выстроен и российский закон. Согласно ст. 16 ФЗ от 27.07.2006 г. «О персональных данных»[43 - Федеральный закон от 27 июля 2006 г. «О персональных данных»//СЗ РФ. – 2006.– № 31 (ч. 1). – Ст. 3451.] субъект персональных данных имеет право отказаться от принятия в отношении него решения на основании исключительно автоматизированной обработки персональных данных. К признакам такого решения относится то, что оно порождает юридические последствия в отношении субъекта персональных данных или иным образом затрагивает его права и законные интересы. Отметим, что в данной нормативной установке центр тяжести принятия решения (право выбора) лежит на субъекте персональных данных, гражданине. Действия государства данная норма не ограничивает.

При этом имеется в виду самый широкий круг решений – как управленческих, так и любых иных. Обработка персональных данных, осуществляемая в частном секторе, порождает вопросы при заключении и исполнении «договора в онлайн-среде в полностью автоматизированном режиме, например при размещении заказа на приобретение цифрового контента, который становится доступным для загрузки по факту оплаты»[44 - Савельев А. И. Научно-практический постатейный комментарий к Федеральному закону «О персональных данных». —М.: Статут, 2017.].

Но вернемся к публичному праву, которое интересуют управленческие решения, принимаемые органами власти на общем уровне – в отношении неопределенного или значительного круга лиц (в отношении охраняемых законом ценностей) и на индивидуальном уровне – в отношении граждан на основе автоматизированной обработки данных. Если в первом случае нарушения прав человека могут иметь место в обобществленном и массовом виде (официальное утверждение нормативного порядка предоставления льгот на дискриминационной основе), то во втором – будет иметь место нарушение права человека как субъективного права, защитить которое можно уже только в индивидуальном порядке. Любопытно, что внедрение алгоритмов, по сути, нивелирует это разграничение и, к примеру, дискриминационная практика реализации алгоритма в отношении конкретных лиц одновременно является массовой (что будет подробнее показано ниже).

Нужно учитывать, что сама идея алгоритма как совокупности инструкций, позволяющих решить проблему и достичь определенного заданного результата, как нельзя лучше отвечает концепции надлежащего, качественного государственного управления, нацеленного на достижение заранее запланированных, ожидаемых результатов, ведь результат управленческой деятельности можно легко заложить в алгоритм принятия управленческого решения. Это дает основания полагать, что в ближайшие годы государство активно займется подобной автоматизацией управленческих решений, а потому необходимо заранее изучить возможные риски. Во всяком случае положение о совместимости алгоритмов и концепции надлежащего государственного управления выдвигается нами в качестве гипотезы настоящего исследования.

Первым делом нужно понять, в каких государственных сферах такая автоматизация может произойти в первую очередь. Поскольку алгоритм – последовательность заранее определенных действий, их наибольшая эффективность прогнозируется в сферах, где не приветствуется широта действий органов власти, проще говоря, где нет (и не должно быть) дискреционных полномочий.


Вы ознакомились с фрагментом книги.
Приобретайте полный текст книги у нашего партнера:
<< 1 2
На страницу:
2 из 2