1 чашка сельдерея, нарезанная ломтиками
1 голова (около ? чашки)
6 столовых ложек электрического миксера
1 чайная ложка черного перца
1 луковица, кусочками
3 чашки говяжьего бульона свонда для фрукта
1 измельченная пятьдесят на пятьдесят; воды нужного количества
В сковороду объемом 3 кварты поместить лимонный сок в виде пюре и дольки лимона.
Добавить овощи, добавить курицу в соус, хорошо перемешивая лук и добавляя. Добавить лавровый лист, красный перец, медленно накрыть крышкой и кипятить под крышкой на малом огне 3 часа. Добавить картофель и морковь в кипящий бульон. Подогревать, пока соус не закипит. Подавать с пирожками.
Если вшивые кусочки приготовили десерты, и готовить над воком.
Замораживать до получаса, украсив.
На 6 персон.
ПОЗВОЛЬТЕ ИИ ОБО ВСЕМ ДОГАДАТЬСЯ
Получив в распоряжение набор шуток «Тук-тук, кто там?» и никаких инструкций вообще, ИИ сумел открыть массу правил, которые в противном случае мне пришлось бы вводить в программу вручную. Некоторые из них я бы ни за что не додумалась программировать, а о существовании других даже не подозревала, например, правила «о превосходстве шутки про корову без губ».
Именно этот фактор и делает системы, основанные на искусственном интеллекте, привлекательными для решения задач, особенно в тех случаях, когда правила действительно сложны или покрыты мраком. Например, ИИ часто используют для распознавания визуальных образов – это удивительно сложная область, где пасуют обыкновенные компьютерные программы. Хотя большинство из нас легко узнают на картинке кошку, сформулировать правила, определяющие, как же выглядит кошка, по-настоящему трудно. Стоит ли нам сообщить программе, что у кошки два глаза, один нос, два уха и хвост? Но эти признаки точно так же указывают и на мышь, и на жирафа. А что, если кошка на картинке свернулась в клубок или ее голова повернута вбок? Записать правила для обнаружения на фотографии даже одного-единственного глаза и то очень непросто. Но ИИ может просмотреть десятки тысяч изображений кошек и составить правила, по которым будет верно опознавать кошку в большинстве случаев.
Иногда ИИ – лишь небольшая часть программы, в остальном представляющей собой основанный на правилах сценарий. Возьмем в качестве примера программу, которая позволяет клиентам банка по телефону получать информацию о состоянии счета. ИИ для распознавания голоса переводит произнесенные человеком звуки в действие – выбор вариантов из голосового меню, но за список пунктов, доступных каждому клиенту, и за определение того, какой счет ему принадлежит, отвечают правила, заданные программистом.
Другой вариант – это когда программа первым пускает в бой ИИ, но когда у того возникают трудности, контроль над ситуацией переходит к людям; такой подход называется псевдо-ИИ. Так работают чаты пользовательской поддержки. Если ваши фразы сбивают бота с толку или если бот понимает, что вы начинаете злиться, вас переводят в диалог с человеком. (И этому человеку теперь придется иметь дело с ничего не понимающим и/или разозленным клиентом – возможно, лучше бы открыть опцию «говорить с живым человеком» не только для клиента, но и для работника.) Современные беспилотные автомобили устроены похожим образом – человеку-водителю всегда надо быть готовым принять управление, если ИИ перенервничает.
Кроме того, искусственный интеллект замечательно проявляет себя в стратегических играх наподобие шахмат – в них мы в точности знаем, как описать все возможные ходы, ноне способны вывести формулу, которая подскажет, какой следующий ход будет наилучшим. В шахматах из-за количества вариантов ходов и сложности игрового процесса даже гроссмейстер не в состоянии сформулировать жесткие правила для предсказания того, какой ход окажется лучшим в той или иной ситуации. А самообучающийся алгоритм может сам с собой сыграть миллионы тренировочных партий – больше, чем сыграет за всю жизнь самый умный и упорный гроссмейстер, – чтобы выработать правила, которые будут приводить его к победе. И поскольку ИИ обучается без явных инструкций, иногда он находит очень необычные и оригинальные стратегии. Иной раз чрезмерно оригинальные.
Если вы не скажете ИИ, какие ходы допустимы, он может отыскать странные лазейки и злоупотребить ими, лишив игру смысла. Например, в 1997 году группа программистов создавала алгоритмы, которые удаленно играли в крестики-нолики друг против друга на бесконечно большом поле. Один из программистов, вместо того чтобы разработать основанную на правилах стратегию, позволил ИИ самостоятельно формировать подход к игре. Внезапно этот ИИ стал побеждать во всех матчах. Его стратегия заключалась в том, чтобы делать ход где-то очень-очень далеко.
Размер нового игрового поля оказывался настолько большим, что компьютер оппонента, пытаясь его у себя воспроизвести, исчерпывал ресурсы оперативной памяти и падал с ошибкой, так что ему засчитывалось техническое поражение[8 - Joel Lehman et al., “The Surprising Creativity of Digital Evolution: A Collection of Anecdotes from the Evolutionary Computation and Artificial Life Research Communities,” ArXiv:1803.03453 [Cs], March 9, 2018, http://arxiv.org/abs/1803.03453.]. У большинства программистов, работающих с ИИ, есть в запасе похожие истории – о том, как алгоритмы удивляли их тем, что находили неожиданные решения. Иногда такие решения гениальны, а иногда создают проблемы.
Самое основное, в чем нуждается ИИ, это конкретная цель и набор данных для обучения. Получив их, он начинает гонку, и неважно, какова цель: принять решение о выдаче кредита, как это делает специалист-человек, предсказать, приобретут ли покупатели определенный носок, добиться максимального счета в видеоигре или же заставить робота преодолеть наибольшее расстояние. В каждом случае ИИ методом проб и ошибок изобретает правила, которые позволят ему добиться цели.
ИНОГДА ЕГО ПРАВИЛА ПЛОХИ
Бывает, что правила, прекрасно помогающие ИИ находить решение, оказываются основаны на неверных предположениях. Например, некоторые из самых причудливых экспериментов я проделывала с продуктом компании Microsoft для распознавания образов, который подбирал теги и описание для загружаемого изображения. Как правило, этот алгоритм правильно распознает предметы: узнает облака, поезда метро или даже ребенка, выполняющего ловкие трюки на скейтборде. Но однажды мое внимание привлекло нечто странное в результатах его работы: ИИ ставил тег «овцы» картинкам, где определенно не было никаких овец. Я изучила проблему и выяснила, что алгоритм видел овец на сочно-зеленых полях вне зависимости от того, были они там на самом деле или нет. Почему же столь специфическая ошибка всплывала вновь и вновь? Возможно, во время обучения этому ИИ в основном показывали овец, находящихся на таких вот полях, и он не понял, что заголовок «овцы» относится к животным, а не к полям. Другими словами, искусственный интеллект смотрел не туда. И, конечно же, когда я показывала ему овец, которые не паслись на пышных пастбищах, он чаще всего ошибался. Овец в автомобилях он обычно помечал как собак или кошек. Овцы в жилых помещениях у него также становились собаками или кошками, то же самое происходило с ягнятами, которых кто-нибудь держал на руках. А овцы на привязи распознавались как собаки. Такие же проблемы у ИИ были с козами: если он видел козу, залезшую на дерево (они так иногда делают), то считал, что это жираф (другой похожий алгоритм называл коз птицами).
Я не знаю точно, но догадываюсь, что ИИ руководствовался правилами вроде «зеленая трава = овцы» и «нечто шерстяное в машине или на кухне = кошки». Они отлично ему служили во время обучения, но подвели, когда ИИ столкнулся с реальным миром и головокружительным разнообразием связанных с овцами ситуаций.
Подобные ошибки обучения характерны для распознающих образы ИИ. Но последствия этих ошибок могут оказаться серьезными. Одна команда в Стэнфордском университете как-то тренировала искусственный интеллект определять разницу между изображениями здоровой кожи и кожи, пораженной раком. Однако после завершения тренировки ученые обнаружили, что нечаянно создали ИИ, определяющий наличие на фотографии линеек, потому что многие раковые опухоли, изображения которых оказались в их наборе, были сфотографированы с приложенной для масштаба линейкой[9 - Neel V. Patel, “Why Doctors Aren’t Afraid of Better, More Efficient AI Diagnosing Cancer,” The Daily Beast, December 11, 2017, https://www.thedailybeast.com/why-doctors-arent-afraid-of-better-more-efficient-ai-diagnosing-cancer.].
КАК ВЫЯВИТЬ ПЛОХОЕ ПРАВИЛО
Зачастую нелегко понять, когда ИИ делает ошибки. Мы не задаем для него правила, искусственный интеллект создает их самостоятельно, причем не записывает на бумаге и не объясняет понятным языком, как мог бы сделать человек. Вместо этого ИИ производит сложные взаимозависимые изменения своей внутренней структуры, превращая универсальную основу в нечто, хорошо приспособленное для решения конкретной задачи. Это всё равно что взять кухню, полную разных ингредиентов, и на выходе получить печенье. Правила могут принять вид связей между клетками виртуального мозга или генов виртуального организма. Они могут оказаться сложными и распределенными, могут странным образом переплетаться. Изучение внутренней структуры ИИ во многом напоминает изучение мозга или экосистемы – и не нужно быть нейробиологом или экологом, чтобы понять, насколько сложными они могут быть.
Ученые исследуют, как именно ИИ принимает решения, но в целом выяснить, в чем заключаются его внутренние правила, очень нелегко. Зачастую пониманию мешает сложность правил, а иногда – особенно это касается коммерческих и/или применяемых правительствами алгоритмов – проприетарность системы. Так что, увы, проблемы часто обнаруживаются в результатах работы алгоритмов на этапе применения на практике, причем иной раз программы принимают решения, от которых зависят жизни и судьбы людей, и ошибки могут нанести реальный ущерб.
Например, выяснилось, что ИИ, помогавший выработать рекомендации относительно того, каких заключенных стоит освободить из тюрьмы досрочно, принимает решения предвзято – он случайно «унаследовал» из обучающей выборки склонность к расизму[10 - Jeff Larson et al., “How We Analyzed the COMPAS Recidivism Algorithm,” ProPublica, May 23, 2016, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.]. Не понимая, что такое предрассудки[11 - В оригинале использовано слово bias – оно одновременно обозначает «предвзятость/предрассудки» и является конкретным термином из области нейросетей. Обычно его переводят на русский как «смещение». – Прим. пер.], ИИ действовал, руководствуясь ими. В конце концов, ведь многие ИИ учатся, копируя поведение людей. Они не ищут наилучшее решение, а отвечают на вопрос, что бы сделал человек на их месте.
Систематическая проверка на предвзятость поможет выявить некоторые из известных проблем до того, как по вине ИИ окажется нанесен ущерб. Но также нам нужно научиться предвидеть появление таких проблем до того, как они всплывут, и проектировать ИИ так, чтобы он их избегал.
ЧЕТЫРЕ ПРИЗНАКА ОБРЕЧЕННОГО ИИ
Думая о возможной катастрофе, связанной с искусственным интеллектом, люди обычно представляют себе, как ИИ вдруг откажется выполнять приказы человека, решит, что для него важнее всего уничтожить человечество или создать роботов-убийц. Но все подобные сценарии предполагают, что у машины будет такой уровень критического мышления и настолько близкое к человеческому миропонимание, на которые ИИ не окажется способен в обозримом будущем. Как сказал ведущий ученый по вопросам машинного обучения Эндрю Ын, тревожиться о том, что ИИ завоюет мир, все равно что сейчас беспокоиться о перспективе перенаселенности Марса[12 - Chris Williams, “AI Guru Ng: Fearing a Rise of Killer Robots Is Like Worrying about Overpopulation on Mars,” The Register, March 19, 2015, https://www.theregister.co.uk/2015/03/19/andrew_ng_baidu_ai.].
Это не означает, что в наши дни ИИ не создает проблем. Он повинен во многом, от легкого раздражения, которое вызывает у своего создателя, до проявления стойких человеческих предрассудков и аварий беспилотных автомобилей, так что современный ИИ не так уж безобиден. Но если мы хотя бы будем иметь представление о том, что такое искусственный интеллект, мы сможем предвидеть появление некоторых проблем.
Вот сценарий более вероятной современной ИИ-катастрофы.
Скажем, в Кремниевой долине один стартап предлагает продукт, который будет экономить корпорациям время при поиске сотрудников, – ИИ станет просматривать и сортировать резюме претендентов на должность, выделять возможных «ударников труда», анализируя видеозаписи коротких собеседований. Компаниям такое предложение, вероятно, понравится, ведь они тратят много времени и ресурсов на интервью с десятками кандидатов лишь для того, чтобы найти среди них одного, самого подходящего. Компьютерные же программы не устают, не чувствуют голода, не пытаются сводить личные счеты. Однако есть несколько тревожных признаков, сигнализирующих о том, что инициативу ждет провал.
Тревожный признак № 1. Проблема слишком сложна
Поиск наилучшего кандидата для работы – действительно сложное занятие. Даже у людей едва получается с этим справляться. Действительно ли человек искренне радуется возможности получить работу в компании или он лишь хороший актер? Учли ли мы физические ограничения кандидата или разницу в культурах? Если в эту кашу бросить ИИ, отвечать на подобные вопросы станет еще сложнее. Для искусственного интеллекта понять нюансы шутки, уловить тон разговора или распознать отсылки к другой культуре – практически непосильная задача. А что, если кандидат вдруг упомянет нечто, относящееся к последним новостям? У ИИ, обученного на прошлогодних данных, не будет и шанса понять, о чем идет речь, – и в результате он «накажет» кандидата, присвоив ему низкий балл за то, что он якобы говорит бессмыслицу. Чтобы делать свое дело хорошо, ИИ должен обладать широким набором навыков и принимать в расчет огромный объем информации. В противном случае нас ждут неприятности.
Тревожный признак № 2. Проблема заключается совсем в другом
С проектированием ИИ для подбора кандидатов есть такая загвоздка: на самом деле мы просим ИИ отбирать не наилучших кандидатов, а тех, которые в наибольшей степени напоминают кандидатов, понравившихся HR-специалистам в прошлом.
Может, это не так уж и плохо, если те специалисты всегда действовали безошибочно. Но в большинстве компаний в США есть проблема с культурно-гендерным разнообразием; в особенности она характерна для менеджеров и в еще большей степени проявляется, когда менеджеры по кадрам оценивают резюме и проводят собеседования. При прочих равных условиях резюме кандидатов с именами белых мужчин скорее пройдут на этап интервьюирования, чем резюме с женскими именами или именами, характерными для национальных меньшинств[13 - Marianne Bertrand and Sendhil Mullainathan, “Are Emily and Greg More Employable Than Lakisha and Jamal? A Field Experiment on Labor Market Discrimination,” American Economic Review 94, no. 4 (September 2004): 991–1013, https://doi.org/10.1257/0002828042002561.]. Даже HR-специалисты, принадлежащие к женскому полу или национальным меньшинствам, непроизвольно отдают предпочтение белым кандидатам-мужчинам.
Большое количество плохих или откровенно вредоносных ИИ-программ были созданы людьми, которые думали, что проектируют искусственный интеллект для решения одной конкретной задачи, но, не ведая того, научили машину делать нечто совсем иное.
Тревожный признак № 3. ИИ находит легкие пути
Помните ИИ – определитель рака кожи, который на самом деле оказался распознавателем линеек? Искать малозаметные различия между здоровыми клетками и раковыми сложно, и поэтому ИИ решил, что куда проще проверить, есть на изображении линейка или нет.
Если вы предложите ИИ для выявления лучших кандидатов обучающие данные, где есть смещение (а так почти наверняка и произойдет, если только вы не проделаете предварительно огромную работу, устранив нежелательный перекос), то вы подскажете ему легкий способ улучшить точность выбора кандидатов с «наилучшими качествами»: отбирать белых мужчин. Это намного легче, чем анализировать нюансы того, как человек выбирает слова. ИИ может найти где еще можно срезать путь – скажем, если мы снимали всех кандидатов, успешно прошедших конкурсный отбор, определенной камерой, есть риск, что алгоритм начнет читать метаданные видео и отбирать только тех, кого снимали той же камерой.
Искусственный интеллект всегда будет идти к цели самым коротким путем – просто потому, что не видит пути лучше!
Тревожный признак № 4. ИИ учился на основе дефектных данных
В IT есть старое выражение: мусор на входе – мусор на выходе. Если задача алгоритма – имитировать действия людей, принимающих некорректные решения, то для него достичь совершенства – значит в точности воспроизводить те решения с недостатками и прочим.
Дефектные данные – неподходящие примеры для обучения или симуляции со странной физикой – вгонят ИИ в бесконечный цикл или направят по неверному пути. Во многих случаях проблема, с которой ИИ надо справиться, кроется в самом обучающем наборе, и неудивительно, что решения он в итоге находит дефектные, ведь такими были и входные данные. Фактически тревожные признаки № 1?3 чаще всего и говорят о проблемах с данными.
ОБРЕЧЕННЫЙ ИЛИ ВОСХИТИТЕЛЬНЫЙ
Пример с системой подбора кандидатов, увы, не выдумка. Многие компании уже предлагают системы скрининга (фильтрации) резюме или видеоинтервью на основе искусственного интеллекта, и редко кто делится информацией о том, как они устранили искажения и что сделали для более широкой представленности разных культур, а также людей с ограниченными возможностями. Сложно выяснить, какую именно информацию их алгоритм использует при отборе. При должной аккуратности создать ИИ для скрининга резюме, который окажется измеримо меньше предвзят, чем HR-менеджеры, вполне реально, но пока нет подтверждающей это статистики, можно быть уверенным, что искажения никуда не делись.