Оценить:
 Рейтинг: 4.6

Принцип «черного ящика». Как превратить неудачи в успех и снизить риск непоправимых ошибок

Год написания книги
2015
Теги
<< 1 ... 3 4 5 6 7 8 9 10 >>
На страницу:
7 из 10
Настройки чтения
Размер шрифта
Высота строк
Поля

С психотерапевтами дела обстоят совсем иначе. Их работа – улучшать функционирование психики пациентов. Но может ли психотерапевт отличить удачное вмешательство от неудачного? Где тут обратная связь? Бо?льшая часть психотерапевтов оценивает реакцию пациента на лечение не по объективным данным, а наблюдая за пациентом в клинике. Однако эти наблюдения весьма ненадежны. В конце концов, пациенты могут быть склонны к преувеличению улучшения своего состояния, чтобы угодить врачу, – это явление в психотерапии хорошо известно.

На деле проблема еще глубже. Психотерапевты редко следят за тем, что происходит с пациентами после того, как курс лечения окончен. Иначе говоря, они не получают информации о том, каковы будут отдаленные последствия их вмешательства. Они понятия не имеют, успешны или нет их методы, если говорить о долгосрочном улучшении психического состояния пациента. Именно поэтому клинические результаты многих врачей со временем не улучшаются. По сути, эти люди играют в гольф в темноте [58].

Или возьмите радиологов, которые пытаются распознать раковые опухоли, изучая рентгеновские снимки молочных желез – маммограммы. Ставя диагноз «злокачественная опухоль», радиолог узнаёт о том, прав он или нет, только после диагностической операции, которая проводится спустя некоторое время. К этому моменту радиолог обычно забывает о том, почему поставил диагноз, и занимается новыми пациентками. Запаздывание обратной связи уменьшает эффективность улучшения интуитивных умозаключений[16 - Даниэль Канеман иллюстрирует эту идею, призывая нас поразмыслить о том, как быстро мы учимся водить машину. Обратная связь в этом случае оперативна и объективна. Корабли мы учимся водить куда дольше – между действием и наблюдаемым результатом проходит больше времени.].

Последствия могут быть и серьезнее. Представим себе, что врачу не удалось диагностировать рак – и пациент, обрадовавшись, ушел домой. Если через несколько месяцев или лет выяснится, что диагноз был неверным и раковая опухоль за это время увеличилась, радиолог может вообще не узнать о своей ошибке. Значит, и учиться на ошибках он не может. Это объясняет, хотя бы частично, почему врачи-стажеры учатся так медленно, постепенно приближаясь к 70-процентной точности диагнозов, но редко превышая этот показатель [59].

Если мы хотим улучшить суждения начинающих экспертов, сосредоточиться на традиционных проблемах вроде мотивации и обязательств недостаточно. Во многих случаях единственный способ подстегнуть прогресс – это найти способ «включить свет». Без доступа к «сообщению об ошибке» можно обучаться и работать годами – и ничего не добиться.

В случае с радиологами представьте себе обучающую систему, в которой студенты получают доступ к библиотеке оцифрованных маммограмм с уже подтвержденной корректностью диагнозов. Студенты могут каждый час ставить диагнозы и немедленно получать обратную связь. Они будут часто ошибаться, однако именно поэтому у них появится больше опыта. Библиотеку маммограмм можно снабдить указателем, тем самым побуждая студента изучать группы похожих случаев и учиться определять важные свойства или типы опухолей [60].

Вернемся теперь к науке, которая учится на своих ошибках. Вы только взгляните на число научных теорий, которые канули в Лету: эмиссионная теория зрения, Птолемеев закон преломления света, теория светоносного эфира, теория полой Земли, теория калорической жидкости, теория флогистона, миазматическая теория возникновения болезней, концепция телегонии и десятки других.

Некоторые из этих теорий на практике были ничуть не лучше астрологии. Однако важнейшее различие с псевдонаукой заключалось в том, что они выдвигали предположения, которые можно было проверить. Вот почему они были заменены более адекватными теориями. По сути, они стали основанием, на котором были созданы более успешные теории.

Отметим напоследок: студенты сегодня уже не изучают эти «неудачные» научные теории. Зачем? Наука и так слишком обширна, чтобы тратить время на идеи, отброшенные много лет назад. Однако эта тенденция создает «слепое пятно», зону некомпетенции. Рассматривая лишь выжившие теории, мы не замечаем ошибок, благодаря которым они появились.

Это слепое пятно важно не только для науки, оно – основное свойство нашего мира, которое по большому счету несет ответственность за перекос в нашем отношении к ошибкам. Успех – всегда вершина айсберга. Мы изучаем популярные теории, летаем в удивительно безопасных самолетах, поражаемся виртуозности настоящих экспертов…

Однако под поверхностью успеха – за пределами нашего зрения, а часто и осознания – кроется гора необходимых неудач.

3

В 2002 г. доктор Гэри С. Каплан, недавно назначенный исполнительным директором сети лечебных учреждений Virginia Mason Health System (Сиэтл), посетил с коллегами Японию. Помимо прочего, Каплан интересовался работой японских компаний, не связанных со здравоохранением: его волновало все, что могло изменить представление о рабочем процессе как у него, так и у других членов руководства.

На заводе Toyota Каплан испытал откровение. Эта компания использовала довольно необычный процесс производства. Если у работника на конвейере возникает проблема или он видит, что совершена ошибка, он нажимает кнопку – и производство по всему заводу приостанавливается.

Руководитель приходит на место, чтобы узнать, что именно пошло не так; если у работника возникли трудности с выполнением какой-либо операции, ему помогают. Ошибка оценивается, из нее извлекаются уроки, и система меняется. Это называется «производственной системой Toyota» (Toyota Production System, TPS), она является одной из самых успешных в истории промышленности.

«Система предназначена для изготовления автомобилей, это совсем не то же самое, что работа с людьми, – сказал Каплан в беседе со мной. – Но лежащий в основе этой системы принцип можно перенести в другие области. Если культура организации открыта и признаёт ошибки, на них может учиться вся система. Так можно улучшать качество оказываемых услуг».

У Каплана яркие глаза и неистощимое любопытство. Когда он говорит, его руки беспрестанно двигаются. «По возвращении из Японии мы внедрили разновидность этой системы в Сиэтле, – продолжает он. – Мы знали, что врачебные ошибки ежегодно губят тысячи американцев, и были полны решимости уменьшить число таких ошибок».

Одна из главных реформ Каплана мотивировала персонал сообщать об ошибках, которые могут повредить пациенту, всякий раз, когда кто-то их обнаруживает. Почти так же система сбора информации работает в авиации и на заводах Toyota. Каплан создал круглосуточную телефонную линию и организовал сбор данных онлайн. Он назвал свою систему оповещения «Безопасность пациента» (Patient Safety Alerts).

Для персонала новая система означала большой культурный сдвиг. Обычно в Virginia Mason на ошибки смотрели косо, как и повсюду в здравоохранении. Субординация была жесткой, медсестры и врачи-стажеры опасались сообщать о промахах начальства. Каплан был удивлен и разочарован тем, что информация об ошибках почти не поступала. Нововведение, предназначенное для оповещения, не выдержало столкновения с профессиональной культурой[17 - Возможно, данное обстоятельство объясняет и тот факт, что конференции по заболеваемости и смертности – собрания медиков, проводимые с целью улучшить заботу о здоровье пациентов, – почти не снижают количество ошибок, которых можно было бы избежать. Конференции регулярно организуются медицинскими центрами и должны предоставлять врачам возможность учиться на ошибках. Однако врачи часто боятся высказываться или сообщать о промахах коллег. Что еще важнее, мало кто пытается осознать проблемы системы.].

По словам Кэти Фёрмен, 14 лет занимающей в Virginia Mason пост первого вице-президента и отвечающей за качество, безопасность и соблюдение правовых норм, «профессиональная культура в здравоохранении построена на субординации и на том, чтобы избежать обвинений, и изменить здесь что-либо [может быть] очень трудно» [61].

Однако в ноябре 2004 г. все в Virginia Mason изменилось. Мэри Макклинтон (69 лет), мать четырех детей, умерла после того, как во время операции, связанной с аневризмой сосудов головного мозга, ей случайно ввели токсический антисептик хлоргексидин вместо безвредного маркерного красящего вещества. Две жидкости находились рядом в идентичных емкостях из нержавеющей стали, и шприц наполнили не из той емкости [62]. Пациентке ампутировали одну ногу, через 19 дней Мэри Макклинтон умерла от полиорганной недостаточности.

Гэри Каплан не стал ничего замалчивать и утаивать – он публично принес искренние извинения (совсем по-другому поступила больница после смерти Илэйн Бромили). «Словами не выразить того, как мы шокированы собственными действиями, – сказал он. – Мы ничего не скрываем, потому что то, что скрыто, невозможно осознать». Родственники покойной приняли извинения, благодаря им они осознали, что именно случилось с их близким человеком.

Смерть Мэри Макклинтон, кроме прочего, стала тревожным сигналом для 5500 работников Virginia Mason. «Нам всем было тогда тяжело, но эта смерть стала призывом сплотиться, – говорит Каплан. – Она дала необходимый нашей организации толчок к осознанию того, насколько все серьезно».

Внезапно система оповещения «Безопасность пациента» заработала. Те, кто отчитывался об ошибках, с удивлением узнавали, что за исключением ситуаций, когда они действительно пренебрегали правилами, их хвалили, а не наказывали. Доктор Генри Отеро, онколог, сообщил о промахе, за который его отчитал коллега: он не обратил внимания на низкий уровень магния в крови пациента. «Я пропустил этот показатель, – сказал он газете. – Не знаю, как это получилось. Но я понял, что не важно, что я чувствую, важно, чтобы все было в порядке с пациентом. Нужно, чтобы я перестал делать ошибки. Нужно, чтобы я мог сказать: возможно, я даю сбой, поправьте меня» [63].

Сегодня в Virginia Mason по каналам «Безопасность пациента» проходит до тысячи оповещений в месяц. Согласно отчету Министерства здравоохранения США, эти сигналы помогли выявить скрытые ошибки во всех медицинских услугах, от назначения лекарств до ухода. «После того как фармацевт и медсестра неверно интерпретировали неразборчиво написанный рецепт, что привело к причинению вреда пациенту, медицинский центр разработал пошаговый протокол, исключающий вероятность подобных ошибок», – сказано в отчете.

Другой сигнал касался медицинских браслетов: «После того как только что госпитализированный пациент получил браслет с цветовым кодом “не реанимировать”, вместо браслета с кодом, указывающим на лекарственную аллергию (по причине дальтонизма медсестры), медицинский центр стал добавлять на браслеты текст».

В 2002 г., когда Каплан возглавил Virginia Mason, эта больница была одной из лучших в Вашингтоне. В 2013 г. она превратилась в одну из наиболее безопасных больниц в мире. В том же году Virginia Mason получила премию «Выдающаяся больница» за достигнутые результаты и награду за лучшее обращение с пациентами, а влиятельная некоммерческая организация The Leapfrog Group восьмой раз подряд признала ее больницей года. После внедрения нового подхода страховые выплаты Virginia Mason уменьшились на 74 % [64].

Этот успех – не редчайший случай и не счастливая случайность, а метод. Правильно внедренная культура обучения на ошибках улучшила результаты больниц по всему миру. Скажем, после введения политики открытости и обнародования информации об ошибках количество исков к клинике Мичиганского университета упало с 262 в августе 2001 г. до 83 в 2007 г. [65]. Число обвинений в преступной халатности, которые предъявляются сотрудникам клиники Иллинойсского университета, через два года после появления системы информирования об ошибках стало меньше в два раза [66].

На примере больницы Virginia Mason мы узнаем важнейшую истину: обучение на ошибках состоит из двух компонентов. Первый – это система. Ошибки можно рассматривать как разрыв между тем, на что мы надеемся, и тем, что происходит на самом деле. Передовые организации всегда стараются сократить этот разрыв, но для этого нужно создать систему, позволяющую превратить ошибки в возможность обучения. Система может со временем меняться: многие эксперты уже пробуют методы, которые, как они надеются, превзойдут производственную систему Toyota. Однако основной структурой всякой системы являются механизмы, направляющие обучение и саморегулирование. И введение оповещения об ошибках само по себе не панацея. Даже идеально продуманная система не будет работать, если профессионалы не делятся информацией, которая позволяет такой системе функционировать. В Virginia Mason персонал поначалу не посылал оповещений. Работники больницы боялись обвинений и потери репутации так сильно, что утаивали информацию об ошибках. Механизмы, позволяющие учиться на ошибках, во многих аспектах бесполезны, если об этих ошибках не говорят. И только когда образ мысли организации изменился, система стала приносить великолепные результаты.

Вернемся на секунду к науке. Наука обладает саморегулирующейся структурой. Делая проверяемые предсказания, ученые могут осознать, что их теория неверна, и у них возникнет побуждение создать новую теорию. Если бы ученое сообщество игнорировало неудобную информацию, не доверяло ей или скрывало ее, оно ничего не достигло бы.

Таким образом, наука – не только метод, это еще и образ мысли. В лучших своих проявлениях она движима неугомонностью, интеллектуальным азартом, готовностью столкнуться с неудачей и не закрывать глаза на важную информацию, даже если та противоречит важным для ученого выводам. Наука – образ мысли и метод одновременно.

В здравоохранении научный подход, позволяющий учиться на ошибках, давным-давно применяется при создании новых лекарств, когда используется клиническое исследование и другие методы. Опыт Virginia Mason показывает, что точно так же можно и нужно подходить к сложной проблеме медицинских услуг, оказываемых реальными людьми, работающими в большой системе. Этот подход следовало внедрить в здравоохранении давным-давно, и тот факт, что никто этим не озаботился, во многом объясняет, почему предотвратимые ошибки убивают больше людей, чем автомобильные аварии.

Вот что пишет об этом Питер Проновост, профессор медицины Университета Джонса Хопкинса и главный врач Центра инноваций и качественной заботы о пациенте: «Фундаментальная проблема качества американской медицины в том, что мы так и не смогли превратить оказание медицинских услуг в науку. Мы находим генетические отклонения, мы находим методы лечения, но будут ли все эти открытия применены к конкретному пациенту – зависит только от нас… Пока что это катастрофа. Вот почему медицина вредит стольким людям» [67].

Проновост заинтересовался безопасностью пациентов, когда его отец скончался в 50 лет от медицинской ошибки. Ему ошибочно поставили диагноз «лейкемия», хотя на самом деле у него была лимфома. «Я учился на первом курсе медицинского факультета здесь, в Университете Джонса Хопкинса, и привел отца к одному из наших специалистов, чтобы тот перепроверил диагноз, – рассказывал Проновост в интервью газете New York Times. – Врач сказал: “Если бы вы пришли раньше, вам можно было бы пересадить костный мозг, но опухоль уже разрослась”. Слова “ошибка” он не произнес, но ситуация была ясна. Я был в шоке. Я злился на врачей и на себя. Я думал: “Медицина должна работать лучше”» [68].

Следующие несколько лет Проновост посвятил реформированию медицинской культуры. Он не собирался закрывать глаза на огромное число людей, умирающих каждый день в больницах США. Он не был готов рассматривать эти трагедии как неизбежные и считать, что это цена, которую вынуждена платить система, работающая в сложных условиях. Вместо этого Проновост стал изучать медицинские ошибки. Он собирал информацию. Он искал модели. Он оценивал методом проб и ошибок возможные изменения.

Одно из главных расследований Проновоста касалось огромного, от 30 до 60 тысяч в год, количества смертей от катетер-ассоциированных инфекций (речь о центральном катетере, который помещается в большую вену, чтобы вводить в организм лекарства, брать кровь на анализ и т. д.). Проновост обнаружил, что заражения возникают вследствие нескольких ошибок, в основном оттого, что врачи и медсестры не надевают масок или накладывают стерильную повязку уже после того, как катетер введен [69]. Если время поджимает, профессионалы пропускают обязательные действия.

Проновост составил чек-лист из пяти пунктов, чтобы нельзя было забыть ни об одном из обязательных действий, а главное, уполномочил медсестер сообщать о случаях, когда хирурги их не выполняют. Обычно медсестры не спешили доносить на врачей, однако их заверили, что в случае чего администрация будет на их стороне. Почти сразу число случаев катетер-ассоциированных инфекций упало на 11 %. В одном только штате Мичиган эта реформа спасла 1500 жизней и сэкономила более 100 млн долларов за полтора года. В 2008 г. журнал Time включил Проновоста в число ста самых влиятельных людей мира из-за того, что он помог предотвратить множество страданий.

В замечательной книге «Благополучные пациенты, умные больницы» (Safe Patients, Smart Hospitals) Проновост писал:

Мой папа напрасно страдал и умер в возрасте всего лишь 50 лет из-за врачебной ошибки и плохого качества медицинского обслуживания. Вдобавок страдали я и мои близкие. Став молодым врачом, я поклялся ради отца и семьи делать все, что будет в моих силах, чтобы улучшить качество и безопасность лечения пациентов… [Иначе говоря, чтобы] превратить оказание медицинской помощи в науку.

Гэри Каплан, чьими трудами больница Virginia Mason спасла тысячи жизней, выразился еще точнее: «Мы учимся на наших ошибках. Вот так просто – и вот так сложно».

Разница между авиацией и здравоохранением иногда формулируется на языке стимулов. Когда пилоты совершают ошибку, они расплачиваются за нее своими жизнями. Когда совершает ошибку врач, он платит за нее жизнью другого человека. Поэтому пилоты сильнее мотивированы избегать ошибок, чем врачи.

Однако это рассуждение упускает главное. Мы знаем, что на заре авиации пилоты гибли очень часто. Это происходило не потому, что у них не было стимула выжить, а потому, что в системе было множество просчетов. В сложном мире неудачи неизбежны. Именно поэтому учиться на ошибках – наша прямая обязанность.

Но от медицинских работников ожидают, что они будут работать без ошибок. Профессиональная культура подразумевает, что практикующие врачи непогрешимы. Стоит ли удивляться тому, что промахи клеймятся и система выстроена так, чтобы игнорировать и отрицать их, вместо того чтобы изучать ошибки и учиться на них?

Другими словами, во многих случаях стимул для улучшения эффективности работает только тогда, когда тот, на кого он воздействует, понимает, как именно улучшается эффективность. Вспомним о средневековых эскулапах, убивавших пациентов, включая своих родных, кровопусканием. Это происходило не потому, что им было все равно, а потому, что им было не все равно. Они считали, что этот метод лечения эффективен.

Они доверяли авторитету Галена больше, чем критике и экспериментам, которые могли бы указать на неустранимые ошибки в их методе и тем самым подготовить почву для прогресса. Пока мы не изменим восприятие неудачи, стимулирование успеха часто останется безрезультатным.

4

Virginia Mason и больницы Мичигана – лишь два из множества ярких примеров, которые появились в здравоохранении в последние годы. Есть и другие. В области анестезиологии, например, исследование медицинских ошибок в Массачусетсе выявило, что у половины анестезионных аппаратов поворот рукоятки по часовой стрелке приводил к увеличению дозы лекарств, а у другой половины поворот той же рукоятки уменьшал дозу.

Это проблема того же типа, что и одинаковые переключатели в кабине самолета B-17, ставшие причиной ряда катастроф в 1940-х гг. Однако ее не заметили по простой причине: ошибки не анализировались и вообще игнорировались.

После публикации исследования дизайн анестезионного аппарата был изменен, и смертность снизилась на 98 % [70]. Это может показаться чудом, но удивляться не следует. Вспомним о том, что новый дизайн панели В-17 почти полностью исключил вероятность аварий на взлетно-посадочной полосе.

Но не все так радужно. В Великобритании Мид-Стаффордширский фонд Национальной системы здравоохранения (НСЗ) более десяти лет не обращал внимания на ошибки врачей, результатом чего стали, по всей видимости, сотни смертей, которых можно было бы избежать. Тревожные сигналы, касающиеся халатности и пренебрежения правилами, поступали годами, но игнорировались персоналом больницы и всеми организациями, регулирующими деятельность НСЗ, включая Министерство здравоохранения [71].
<< 1 ... 3 4 5 6 7 8 9 10 >>
На страницу:
7 из 10