Оценить:
 Рейтинг: 0

2062: время машин

Год написания книги
2018
Теги
<< 1 2 3 4 5 6
На страницу:
6 из 6
Настройки чтения
Размер шрифта
Высота строк
Поля
Подобные наблюдения над ИИ уже были проведены в ограниченных и безопасных условиях. В 2008 году Google запустил сервис Google Flu Trends. Он был призван обрабатывать большие объемы данных для пользы общества – наиболее эффективного прогнозирования сроков возникновения эпидемий гриппа по всему миру. Google Flu Trends использовал запросы в поисковой системе Google для выявления места и времени особо сильных вспышек гриппа. Если в определенном регионе люди начинали задавать в Google вопросы вроде «Как лечить боль в горле?» или «Что такое простуда?», – это означало, что, вероятно, там начинал распространяться грипп. В 2013 году Google Flu Trends просто прекратил свою работу. После этого он был тихо удален из списка сервисов Google. Что же пошло не так?

Проблема состояла в том, что поиск Google (как и человеческая экосистема, внутри которой он оперирует) – подвижный объект. Часть его улучшений заключалась в том, что Google стал предлагать варианты запросов еще до того, как человек заканчивал печатать. Эти улучшения изменили сам процесс поиска, а потому помешали работе Google Flu Trends. Сделав поиск Google удобнее, мы усложнили процесс прогнозирования эпидемий гриппа.

Безразличие

Пятый вариант – это возможное безразличие ИИ к нам, подобное нашему безразличию к менее разумным формам жизни. При строительстве нового завода никто особенно не интересуется судьбой колонии муравьев, которая располагается на этом месте. Мы не стали бы изо всех сил стараться извести муравьев, но так вышло, что они живут там, где должна быть построена фабрика. Точно так же сверхинтеллект может не интересоваться нашим существованием. Если вдруг мы окажемся у него на пути, он просто нас устранит. Он ничего не имеет против нас – мы всего лишь сопутствующий ущерб.

Опасность такого безразличия возможна при условии, что ИИ не будет от нас зависеть. Мы можем уничтожить колонию муравьев не задумываясь, потому что, скорее всего, это не будет иметь никаких серьезных последствий. Однако уничтожение человечества вполне может привести к таким побочным эффектам, которые не очень выгодны для самого ИИ. Кто поддерживает инфраструктуру, которой он пользуется? Кто обеспечивает работу облачных серверов? Функционирование интернета, соединяющего серверы? Если выполнение этих задач все еще останется за нами, то ИИ не будет к нам безразличен.

Точно так же безразличие сверхинтеллекта к людям исключает возможность того, что он будет покровительствовать нам. Вообще говоря, «покровительствовать» – не самое удачное слово. С одной стороны, с позиции превосходящего интеллекта он может относиться к нам как к детям, которых необходимо опекать. С другой стороны, мы ведь будем его «родителями», которых также нужно опекать в качестве благодарности за то, что мы подарили ему жизнь. Обе стороны этой медали – причины, по которым ИИ вряд ли будет к нам безразличен.

Стоит ли нам волноваться?

Все эти экзистенциальные риски основываются отчасти на том, что сверхинтеллект будет очень быстро развиваться. В этом случае у нас останется мало шансов распознать угрозу заранее и предотвратить ее. Однако, как мы убедились, есть множество причин верить, что технологическая сингулярность никогда не случится. Если всё действительно так, то ИИ будет развиваться медленно. Мы начнем постепенно создавать все более продвинутые системы. Большинство моих коллег уверены, что до появления сверхинтеллекта у нас еще есть десятки лет, если не века; если они правы, то нам хватит времени подготовиться.

Кроме того, вас может успокоить тот факт, что за последнее десятилетие был создан исследовательский комитет, посвященный проблеме безопасности в сфере ИИ. Частично основанные благодаря гранту Илона Маска размером в десять миллионов долларов, в США, Великобритании и других странах работают группы специалистов, которые ищут технические способы избежать тех рисков, о которых я рассказал выше. В свете этих исследований я убежден, в ближайшее время нам не грозит уничтожение от рук ИИ.

Тем не менее мы не можем полностью исключать экзистенциальной угрозы, которую несет появление сверхинтеллекта. Однако разумнее было бы, вероятно, сосредоточиться на тех угрозах нашему виду, которые имеют более реальный характер, а также на более насущных (но менее опасных) проблемах, связанных с искусственным интеллектом. Вам необязательно верить мне на слово, когда я утверждаю, что ИИ – не самая страшная экзистенциальная угроза человечеству. Опрос пятидесяти нобелевских лауреатов, проведенный журналом Times Higher Education в 2017 году, показал, что искусственный интеллект проигрывает в этой борьбе климату, росту населения, атомной войне, болезням, эгоизму, невежеству, терроризму, фундаментализму и Дональду Трампу.

«Пари Паскаля»

Представим ненадолго, что сверхинтеллект все же появится. Даже если это произойдет спустя столетие или больше, люди вроде Илона Маска и Ника Бострома утверждают, что нам стоит об этом беспокоиться. Они боятся, что ИИ станет еще большей угрозой для человечества, чем ядерная война, глобальное потепление и другие актуальные проблемы планеты. Их страх – потерять контроль над машинами, что приведет к намеренному или ненамеренному уничтожению нашего вида.

Мне кажется, что их мнение в некотором смысле подчинено философскому аргументу, придуманному Блезом Паскалем. Паскаль, который родился в 1623 году, а умер в 1662-м, был французским философом, математиком и физиком. В своих посмертно опубликованных «Мыслях»[39 - «Мысли о религии и других предметах» (фр. Pensеes sur la religion et sur quelques autres sujets) – собрание идей Блеза Паскаля, записанных им в 1657–1658 гг. Опубликованы в 1670 г. Позже название сократилось до одного слова – «Мысли» (фр. Pensеes).] он выдвинул аргумент о необходимости веры в Бога, получивший известность как «пари Паскаля».

Условия выглядят следующим образом. Бог либо существует, либо нет, а вам нужно решить, что из этого верно. Так или иначе вам приходится выбирать, ведь от этого зависит ваша судьба. Даже если вы не будете делать ничего, вы окажетесь на одной из двух сторон.

Если Бог существует и вы в него верите, то вам обеспечена прекрасная вечная жизнь. Если Бога нет, а вы в него верите, то ваша потеря конечна: ваши действия в этой жизни будут продиктованы верой в Бога, которого не существует. Если же Бог существует, но вы в него не верите, то ваши потери не закончатся со смертью: вы упускаете счастье вечной жизни. Наконец, если вы не верите в Бога и его не существует, то вы просто сэкономите усилия, которые потратили бы на религиозные практики.

Рассуждения Паскаля были одним из первых примеров «теории принятия решений», области логики, которая занимается поиском наилучших решений. (В наши дни ИИ находится на передовой процесса интеграции теории принятия решений в компьютеры. Факт, что те же теоретические идеи вводят людей в заблуждение относительно реальных экзистенциальных угроз для нашей планеты, кажется несколько ироничным.)

Теория принятия решений говорит нам о том, что верить в Бога выгоднее, чем не верить. Мы рискуем конечной суммой для того, чтобы потенциально приобрести бесконечную. Такого рода возможностью любой банкир или игрок должен пользоваться без лишних размышлений. «Пари Паскаля» логически убеждает поверить в Бога, так как это может принести вам максимум отдачи.

Однако исключительно логика и теория вероятности не могут определять, верить ли нам в Бога. Люди, которые переживают по поводу сверхинтеллекта, попадаются в похожую ловушку. В нашей ситуации этот аргумент выглядит следующим образом. Исчезновение человечества может быть концом всей жизни во Вселенной, которая превратится в пустое и безжизненное место. Это лишит миллиарды или даже триллионы людей, которые могли бы быть после нас, возможности быть счастливыми. Кроме того, многие поборники теории технологической сингулярности – трансгуманисты, верящие в то, что однажды мы победим смерть. В таком случае уничтожение человеческой расы лишит их возможных потомков еще большего счастья.

Исчезновение нашего вида – настолько серьезная угроза, что она перевешивает все остальные, даже учитывая тот факт, что риск ее реального появления совсем невелик. Она оказывается важнее мирового финансового кризиса. Важнее климатических изменений. Важнее коллапса нашей политической или экономической системы. Важнее даже Трампа. Раз это такая страшная угроза, мы просто обязаны поставить ее выше всего остального – прямо как в «пари Паскаля», где вечное счастье и его потеря ставят риск неверия в Бога выше всего остального. В обоих случаях мы должны игнорировать все остальные проблемы.

Не принимать в расчет будущее

Вообще говоря, современная теория принятия решений нашла контраргумент к «пари Паскаля». Решение в том, чтобы учитывать настоящее и не учитывать будущее. Награда, полученная сегодня, важнее, чем та, которую можно получить завтра. Мы живем в настоящем, а не в будущем. Это заставляет нас смотреть на проблему несколько хладнокровно и утилитарно. Однако эта точка зрения, вероятно, соотносится с нашей биологией. Моментальный результат для нас важнее долгосрочных перспектив.

Один из способов не принимать в расчет будущее – с помощью коэффициента дисконтирования[40 - Менее изящный способ сделать это – установить определенное временное окно. Вся прибыль, которая может быть получена по истечении этого времени, просто игнорируется.]. Предположим, мы обесцениваем будущее счастье на два процента в год по нынешнему курсу инфляции во многих развитых экономиках. Из этого следует, что быть счастливым через год – это всего 98 % от цены сегодняшнего счастья. Нам придется еще раз воспользоваться утилитарной точкой зрения и подсчитать сумму счастья всего населения. Подарить двум людям одинаковую радость в два раза ценнее, чем подарить эту радость одному человеку.

Ради аргумента предположим, что население планеты продолжит расти в том же темпе, что и сейчас. В следующем году оно будет на 1,1 % больше, чем сегодня. Так как коэффициент дисконтирования больше, чем темпы роста населения, будущие поколения (даже бесконечные) не будут так же счастливы.

Через шестьдесят три года нынешнее население планеты удвоится. Однако коэффициент дисконтирования счастья таков, что люди, которые будут жить в это время, получат лишь его четверть. Счастье всего мира через шестьдесят три года будет лишь половиной сегодняшнего счастья. Поэтому важнее обрести его сейчас, а не через столько времени.

Через сто двадцать шесть лет население увеличится в четыре раза. По коэффициенту дисконтирования их радость будет составлять всего одну шестнадцатую от сегодняшней. Всеобщее счастье, в свою очередь, составит лишь четверть от сегодняшнего показателя. И снова представляется очевидным тот факт, что сегодняшнее счастье гораздо весомее будущего.

Даже небольшой коэффициент дисконтирования заставляет нас сосредоточиться на настоящем. Более актуальных проблем, по поводу которых имеет смысл волноваться, в мире предостаточно. Эти проблемы нанесут нам вред гораздо быстрее, чем сверхинтеллект. Несомненно, эта книга – предостережение по поводу некоторых реальных угроз, исходящих от ИИ и возникающих уже сейчас. Однако большинство из них касается исключительно того примитивного искусственного интеллекта, который мы имеем на сегодняшний день, а не того, который появится через пятьдесят или сто лет.

Никогда не говори «никогда»

Разумеется, нельзя уверенно говорить о том, что сверхинтеллект не представляет никакой опасности для человечества. История уже много раз учила нас никогда не говорить «никогда».

Мой коллега Стюарт Рассел любит вспоминать, что один из самых авторитетных физиков своего времени, Эрнест Резерфорд, утверждал, что извлечение энергии из атома невозможно. Эта его цитата была опубликована в статье в газете The Times 12 сентября 1933 года. На следующий день Лео Силарду пришла в голову идея ядерной цепной реакции, которая породила ядерную бомбу и атомную энергию[41 - По словам историка Ричарда Роудса, идея цепной реакции атомов пришла к Лео Силарду, когда он переходил улицу в лондонском районе Блумсбери на следующий день после того, как Резерфорд заявил о невозможности извлечения энергии из атома: «На светофоре загорелся зеленый свет. Силард сошел с тротуара. В тот момент, когда он пересек улицу, время вдруг раскрылось перед ним и он узрел путь в будущее, смерть в мире, все наши беды и очертания грядущих событий» (См. Richard Rhodes [1986] The Making of the Atomic Bomb, New York, Simon & Schuster). Цепная ядерная реакция – один из самых драматичных примеров силы экспоненциального роста. Один нейтрон расщепляет атом, высвобождая два нейтрона. Эти два нейтрона расщепляют два новых атома, высвобождая четыре нейтрона. Из этих четырех получается восемь, из восьми – шестнадцать, из шестнадцати – тридцать два и т. д. Спустя десять шагов мы получаем тысячу нейтронов, спустя двадцать – миллион, спустя тридцать – миллиард, спустя сорок – триллион. ИИ сейчас представляет собой пример подобного экспоненциального роста вычислительной способности, объема данных, выполнения алгоритмов и финансирования, инвестируемого в эту область. Так же, как и все экспоненты, этот рост не может продолжаться вечно, но пока это происходит и прогресс впечатляет. 3. Конец совести]. Меньше чем за день человечество преодолело расстояние от «никогда» до «пугающе близко».

Стоит с осторожностью относиться к слову «никогда». Артур Ч. Кларк предложил три закона, которые предупреждают об опасности прислушиваться к тем экспертам, которые утверждают, будто что-либо никогда не произойдет. Их стоит держать в уме, когда речь идет о будущем.

• Первый закон. В случае, когда пожилой, но выдающийся ученый говорит о возможности чего-то, он почти наверняка прав. Если он утверждает, будто что-то невозможно, он, вероятно, ошибается.

• Второй закон. Единственный способ обнаружить границы возможного – рискнуть и попытаться выйти за них.

• Третий закон. Любая прорывная технология неотличима от волшебства.

В свете этого позвольте мне отметить, что технологическая сингулярность возможна, а вы уж сами решайте, что делать с этим прогнозом.

За рамками природы

Вообще говоря, идея технологической сингулярности несколько отвлекает от основной сути сверхинтеллекта. Он может появиться и без этого. Например, машины могут стать сверхразумными просто потому, что не связаны, в отличие от нас, биологическими рамками. У них есть масса преимуществ по сравнению с людьми, многие из которых я перечисляю в последней главе.

В ходе эволюции появление определенных природных ограничений было неизбежным. К примеру, наш мозг ограничен в размерах примерно до ста миллиардов нейронов. Человеческий мозг, потребляя энергии больше любого другого органа в нашем теле, ограничен всего двадцатью ваттами энергии. У компьютеров нет подобных проблем. Нужна дополнительная память? Поставьте лишний чип памяти. Нужно больше? Храните данные в облаке. Нужно больше мощности? Просто проведите больше напряжения от розетки в стене. К тому же, в отличие от нас компьютеры могут работать 24/7. Им не нужно спать или отдыхать.

Люди ограничены также в чувственном восприятии мира. Наше обоняние хуже, чем у собак, а зрение хуже, чем у орла. Компьютеры могут нас превзойти, если преодолеют эти ограничения. Они могут пользоваться совершенно иными, новыми сенсорами.

Инфракрасное зрение, как у москитов. Ультразвуковые сонары, как у летучих мышей. Сенсоры, которых не существует в природе, как, например, GPS, радары или лидары. Для машин не составит труда обрести суперспособности.


Вы ознакомились с фрагментом книги.
Приобретайте полный текст книги у нашего партнера:
<< 1 2 3 4 5 6
На страницу:
6 из 6