Вперед, к новому партнерству разума и машины

Как использовать все, что мы узнали о несовершенстве человеческого разума? Как эта информация может привести нас к более эффективному принятию решений? Наиболее очевидный подход – позволить машинам принимать решения в тех случаях, когда они способны это делать. Пусть компьютерные аналоги человеческой Системы 2 с их экспоненциальным прогрессом по закону Мура и огромным потоком входящих данных выдают нам ответы без применения Системы 1. Именно такой подход выбирают все больше и больше компаний.

АВТОМАТИЧЕСКАЯ «НЕВИДИМАЯ ЭКОНОМИКА»

Насколько нам известно, одним из самых ранних (он появился на заре компьютеризации корпораций) примеров полностью автоматического принятия решений была разработка кредитного рейтинга, отражающего платежеспособность людей, то есть вероятность того, что они возвратят ссуду определенного размера. Ранее это весьма важное решение традиционно принимали специалисты по кредитованию в филиалах банков, которые оценивали заявления на основе собственного опыта, иногда в сочетании с директивами или инструкциями. Однако Билл Фейр и Эрл Айзек подумали, что машины справились бы лучше. В 1956 году они основали Fair Isaac Corporation и начали вычислять кредитные рейтинги FICO.

Вскоре автоматическая оценка платежеспособности для получения кредита вошла в норму. Издание American Banker сообщало, что к 1999 году «ни один сотрудник не рассматривает просьбы о кредите на сумму в 50 тысяч долларов или меньше – все делает компьютер»[129]. Было подтверждено, что рейтинг FICO и его эквиваленты весьма надежно прогнозируют возврат кредита, а поскольку в последние годы увеличилось количество и разнообразие цифровой информации о людях, эти большие данные стали использоваться для улучшения и расширения кредитных рейтингов.

Их разработчики должны быть осторожны, чтобы не перейти «красную черту» и не начать незаконно отказывать или ограничивать размер кредита людям по географическому, расовому или этническому признаку. Впрочем, в целом эти рейтинги полезны, поскольку дают возможность взять кредит большему количеству человек и позволяют заемщикам уверенно расширять свой бизнес. Есть фактические свидетельства того, что случаев пересечения «красной черты» стало действительно меньше, когда решения о выдаче кредитов стали приниматься преимущественно компьютерами. В 2007 году Федеральная резервная система сообщила, что модель кредитного рейтинга «ограничила возможность совершения незаконных дискриминирующих действий… [и] способна уменьшить вероятность того, что на решения о кредитах будут оказывать влияние личностные характеристики или другие факторы, запрещенные законом, включая расовую или национальную принадлежность»[130].

Сегодня можно увидеть массу примеров полезных, эффективных решений, стопроцентно принимаемых компьютерами. Amazon и другие площадки, занимающиеся торговлей в интернете, генерируют рекомендации для покупателя при каждом посещении сайта, и, хотя многие предложения не попадают в цель, некоторые оказываются вполне интересны. Amazon оценивает, что 35 процентов ее сделок становятся возможны в результате кросс-продажной деятельности, например после рекомендации других товаров[131]. Цены на авиабилеты и номера в гостиницах постоянно меняются, реагируя на предполагаемое развитие спроса и предложения. Такой подход к ценообразованию, известный как управление доходами, жизненно важен для несметного множества компаний (в главе 8 мы вернемся к этой теме), и очень редко при автоматическом генерировании цен их перепроверяет человек – если такое вообще бывает. Цены на физические товары сейчас тоже часто меняются автоматически. В 2015 году на следующий день после Дня благодарения Amazon и Walmart изменили цены на все товары в США на 16 и 13 процентов соответственно[132].

Сегодня столько решений целиком принимается компьютерами, что экономист Брайан Артур использует понятие «невидимой экономики»[133], имея в виду процесс, при котором сделки происходят без человеческого участия – «масштабно, негласно, комплексно, невидимо и независимо от нас». Постепенно эта автоматическая вторая экономика вторгается в традиционную, в которой есть люди-посредники, и алгоритмы берут на себя то, что делали эксперты и лица, принимающие решения. Поскольку все больше и больше информации переходит в цифровую форму, мир представляет собой изобилие данных, помогающих улучшить принятие решений там, где интуицию можно заменить алгоритмом.

Рекламные агентства уже давно помогают клиентам не только в творческой работе над созданием роликов, но и в определении того, когда и где их нужно показывать, – во время каких телепрограмм, на каких рынках и в какое время они будут лучше соответствовать целям и бюджету рекламы. Для этой работы уже не одно десятилетие используются данные и технологии. Так, агентство в популярном телесериале «Безумцы» (Mad Men) в 1969 году применяет свой первый компьютер, IBM System/360, чтобы эффективнее размещать рекламу (и производить впечатление на клиентов)[134], но все-таки в основном опирается на суждения и решения людей.

Будучи старшим аналитиком во время второй успешной избирательной кампании Барака Обамы в 2012 году, Дэн Вагнер видел, насколько большей точности можно добиться в работе и насколько это выгодно. Вагнер с коллегами составили реестр американских избирателей. С помощью машинного обучения, которое мы обсудим в следующей главе, аналитики создали три индивидуальные оценки для каждого избирателя в реестре: оценку поддержки, прогнозировавшую, насколько вероятна поддержка человеком Обамы (по сравнению с его противником Миттом Ромни); оценку явки, прогнозировавшую вероятность, с которой человек придет на выборы и проголосует в ноябре; оценку убежденности, или прогноз вероятности того, что он будет более благожелательно относиться к Обаме после его выступления[135].

За долгие годы накопились социально-демографические данные по каждой телепередаче – например, сколько мужчин в районе Денвера в возрасте от 18 до 24 лет смотрят повторы анимационного ситкома «Гриффины» по вторникам в 22:00. Специалисты и компании, покупающие эфирное время для рекламы, традиционно опираются на эту информацию в принятии решений. Если бы у кампании Обамы в 2012 году было намерение донести его обращение до мужчин в возрасте от 18 до 24 лет, живущих в Колорадо, множество компаний и людей посоветовали бы запускать рекламу вечером во вторник во время повтора «Гриффинов».

Подобно большинству других специалистов по закупке рекламного времени, люди в команде Обамы знали, что на такие социально-демографические данные лучше не полагаться, так как они очень неточны. Не исключено, что рекламу увидели бы преимущественно сторонники Ромни или же люди, которые уже приняли решение голосовать за Обаму (что тоже было неподходящим вариантом, поскольку средства расходовались впустую). Опираться на демографию – все равно что полагаться на суждения и оценки, которые на деле немногим лучше догадок. Кто сказал, что к мужчинам в возрасте от 18 до 24 лет можно обращаться как к единой группе или что зрители «Гриффинов» (либо мультфильмов в целом) более восприимчивы к выступлениям Обамы?

Вагнер и его коллеги поняли, что, составив всеобъемлющий реестр избирателей, они уже прошли полпути к более эффективной покупке эфирного времени. С его помощью можно было бы вычислить людей, находящихся в тех двух группах, до которых желательнее всего достучаться: сторонников Обамы, не собирающихся идти голосовать, и колеблющихся избирателей, которых нужно уговорить поддержать Обаму. Первая группа получила название «идите голосовать» (GOTV, get out the vote), вторая – «поддающиеся убеждению». Команда аналитиков обнаружила, что участники этих групп принадлежат к самым разным категориям, поэтому выбор телепередач только на основе демографических сведений не позволил бы обратиться к целевой аудитории. Команда также узнала из более ранних экспериментов, что эти две группы реагируют на разные виды агитации, так что при покупке времени на телевидении необходимо было их дифференцировать.

К 2012 году некоторые рейтинговые компании вышли далеко за рамки использования одних только демографических данных и были в состоянии указать, какие отдельные люди их смотрят[136]. Этих-то данных и не хватало Вагнеру и его коллегам. Они предоставили таким компаниям списки GOTV («идите голосовать») и «поддающихся убеждению», а взамен получили информацию о том, сколько людей в каждой группе смотрят ту или иную телепередачу[137]. Это позволило легко определить наилучшее эфирное время – то есть те телепрограммы, которые собирают у экранов больше всего GOTV и «поддающихся убеждению» в расчете на доллар рекламных расходов. Вагнер рассказывал: «Мы пришли к мысли покупать время поздних вечерних программ вроде тех, что крутят на TV Land, хотя это и казалось странным. Они считались в целом невыгодными и потому были дешевы. Но их смотрело множество избирателей, поддающихся убеждению, так что мы купили время»[138].

После выборов Вагнер основал компанию под названием Civis Analytics, которая трансформировала этот подход к покупке эфирного времени в готовый продукт и стала предлагать его рекламодателям. По мнению Вагнера, сейчас самое время продавать такие услуги – в основном по той причине, что у многих компаний есть огромные списки отдельных людей: перспективных клиентов, активных клиентов, людей, возможно, склонных к дополнительным покупкам, и прочих. Он говорил нам: «Если вы продаете дорогие шины, то существует сколько-то людей, желающих потратить уйму денег на дорогие шины, и 90 процентов тех, кому на них наплевать, потому что они не водят машину или склонны экономить. У вас есть вполне пригодное представление о вашей целевой аудитории, но раньше вы не знали наверняка, какие телепередачи она смотрит. Что ж, теперь вам это известно»[139]. Для рекламодателей размещение роликов в телеэфире – важное решение, оно принимается на основе определенных данных, но на него также сильно влияют человеческие суждения. Компания Civis стремится изменить эту ситуацию и сделать покупку рекламного времени в меньшей степени интуитивной и в большей степени рациональной.

Разумеется, даже прекрасно отлаженная система, основанная на данных, далека от совершенства, особенно если она имеет дело с неточной информацией. В 2016 году во время кампании Хиллари Клинтон применялись аналогичные методы, но Клинтон проиграла выборы, в частности, потому, что данные опросов ошибочно показали, что у нее будет большой отрыв в трех штатах Среднего Запада, где она в итоге немного уступила.

Еще одна проблема состоит в том, что лица, принимающие решение, не всегда правильно ставят конечную цель; Ронни Кохави (один из авторов термина HiPPO) называет это явление критерием общей оценки[140]. Даже если бы группа Вагнера смогла максимально точно выявить преимущество Клинтон в разных штатах, такая цель не была бы правильной. Президент США избирается коллегией выборщиков, а не прямым народным голосованием, следовательно, здесь требуется более тонкая стратегия, зависящая от штата. Аналогичным образом легко измерить количество просмотров страницы сайта или количество кликов, которые обеспечила сетевая рекламная кампания, однако бизнес больше интересуют долговременные продажи, которые обычно максимизируют иначе. Способность тщательно отбирать входные данные и определять правильные показатели работы – ключевой навык для лиц, принимающих решения на основе данных.

КОГДА АЛГОРИТМЫ ВЕДУТ СЕБЯ ПЛОХО

У передачи решений машинам есть вполне реальное неприятное следствие: ошибки и недочеты в алгоритмах могут закрепить или даже усилить некоторые из вредных предрассудков нашего общества. Например, Латания Суини, известный профессор из Гарварда, встревожилась, после того как ввела свое имя в Google. Вместе с результатами появилось объявление:

Латания Суини. Арестована? 1. Введите имя и штат. 2. Получите доступ ко всей информации. Мгновенные проверки – www.instantcheckmate.com[141]

Такое объявление предполагало, что у нее криминальное прошлое, хотя она никогда не подвергалась задержанию.

Решив исследовать это явление, Суини обнаружила, что поиск по именам, более распространенным среди афроамериканцев (например, Тревон, Лакиша или – да, Латания), с гораздо большей вероятностью приводил к появлению сообщения «Арестована?», чем по именам, чаще ассоциирующимся с белыми (например, Лори или Брендан)[142]. О причинах этого феномена нельзя сказать ничего точно, но Суини дала ему такое объяснение: алгоритм Google, обеспечивающий показ рекламы, заметил, что клики более вероятны, когда объявления связаны с именами, характерными для чернокожих. Это не отражение сознательных дискриминирующих действий людей, размещающих объявления или работающих в Google. Просто алгоритм отражает и усиливает распространенный в обществе расовый предрассудок, проявляющийся в решениях миллионов людей кликнуть по определенным объявлениям. Аналогичным образом по словам «ученый» и «бабушка», набранным в январе 2017 года в сервисе поиска изображений Google, выдавалось ошеломляющее количество фотографий белых людей.

В статье в Nature Кейт Кроуфорд и Райан Кало отмечали опасность того, «что в ряде контекстов недостатки систем искусственного интеллекта чрезвычайно влияют на группы, которые и без того находятся в невыгодном положении из-за таких факторов, как расовая принадлежность, пол или социально-экономические условия», и подчеркивали, насколько важно при проектировании таких систем учитывать социальные воздействия – как намеренные, так и непреднамеренные[143].

Мы разделяем эту озабоченность и видим в тенденции к алгоритмическому принятию решений как вероятные проблемы, так и благоприятные возможности. Проблемы состоят в том, что такой подход способен укоренить и закрепить несправедливые, опасные и нежелательные искажения. Хуже того, такие искажения могут возникать, несмотря на искреннее желание разработчиков создавать по-настоящему беспристрастные системы, и, вероятно, их будет трудно обнаружить без масштабного тестирования. Любой проект обязательно столкнется с такой проблемой.

Благоприятные возможности состоят в том, что компьютерные системы, как правило, легко поддаются тестированию и улучшению. И если какую-то ошибку однажды исправить, то маловероятно, что она проявится снова. Людям, напротив, крайне трудно разобраться в своих предрассудках (сколько явных расистов и сексистов вы знаете?), не говоря уже о том, сколько труда нужно для их преодоления. Если смотреть на ситуацию реалистично, то для систем, принимающих решение, идеальным не будет ни один стандарт – хоть на основе компьютера, хоть на основе человека, хоть на их сочетании. Любая система, скорее всего, будет содержать искажения и делать ошибки. Так что лучше поставить цель выработать такой подход, который сведет их к минимуму и позволит легко и быстро их исправлять.

ИСПОЛЬЗУЙТЕ РАЗУМ ДЛЯ ПРИНЯТИЯ РЕШЕНИЙ – НО ДЕЛАЙТЕ ЭТО РАЗУМНО

Какую роль в принятии решений должны играть люди (и должны ли вообще)? Мы уже знаем об искажениях и ошибках Системы 1, у нас есть океаны данных и растущие с каждым годом вычислительные мощности, так что можно сделать вывод, что «невидимая экономика» вот-вот вытеснит традиционную, а цифровые аналоги Системы 2 вскоре станут принимать большинство решений. Есть такая старая шутка: в будущем на каждом заводе останется всего два работника – человек и собака. Обязанностью человека будет кормить собаку, а обязанностью собаки – следить, чтобы человек не касался машин[144]. А может, действительно компании завтрашнего станут такими?

Мы так не думаем. Да, у нас есть предрассудки, которых нет у компьютеров. Но у нас есть и сильные стороны, которых лишены машины. Начнем с того, что мы постоянно получаем от своих органов чувств невообразимое количество данных и при этом не занимаемся предварительным отбором – просто вбираем их целиком по мере поступления. Нам трудно слышать только некоторые звуки или видеть только некоторые вещи – даже в течение короткого времени. Компьютеры ведут себя наоборот: они испытывают огромные трудности в сборе разнородных данных или данных, отличных от тех, с которыми им позволили работать конструкторы и программисты.

Эта разница приводит к появлению важной работы для людей – Мил назвал ее «ролью сломанной ноги»[145]. Для иллюстрации своей идеи он придумал такой пример. Некий профессор каждый вторник в течение нескольких лет ходит в кино. Разумеется, компьютер спрогнозирует, что он снова пойдет туда и на следующей неделе. И вдруг в ближайший вторник утром профессор ломает ногу, и гипс на бедре не позволяет ему втиснуться в кресло кинотеатра (пример был придуман в 1954 году). Любой человек мгновенно поймет, что вечер у профессора не задался, но такую догадливость непросто включить в алгоритм компьютера. Существует слишком много различных непредвиденных факторов, влияющих на поведение профессора[146]. Кто бы ни разрабатывал компьютерную систему, он не в силах собрать достаточно данных обо всех факторах, чтобы программа могла их учесть. Единственный способ сделать это – иметь всеобъемлющую модель мира, в отличие от той, что есть у компьютера.

Еще одно огромное преимущество человека – старый добрый здравый смысл. У одних его меньше, чем у других, но у любого из нас здравого смысла неизмеримо больше, чем у самых совершенных компьютеров. Как только мы рождаемся, мы начинаем изучать важные вещи о том, как устроен мир, и исследуем его уверенно и быстро. Однако, несмотря на десятилетия экспериментов, мы всё еще слишком мало знаем о том, как приобретается здравый смысл, и наши попытки привить его компьютерам до сих пор заканчивались грандиозными провалами (мы поговорим о них в следующей главе).

Таким образом, во многих случаях хорошо иметь под рукой человека, который будет проверять решения компьютера, чтобы убедиться, что они имеют смысл. Томас Дэвенпорт, специалист по аналитике и технологиям, называет такой надзор «взглядом из окна»[147]. Это не просто выразительная метафора. Эти слова произнес его знакомый пилот, который рассказывал, что вполне полагается на приборы самолета, но считает важным иногда самому взглянуть на линию горизонта. Такой подход может быть в высшей степени полезным не только для предотвращения ошибок, но и для сохранения репутации компании.

Сервис Uber познал это на горьком опыте в конце 2014 года. Тогда компания была хорошо известна тем, что временно повышала тарифы в часы интенсивного спроса, хотя многие пользователи считали подобную тактику неприемлемой. Руководство Uber полагало (и мы с ним согласны), что такое ценообразование полезно для баланса спроса и предложения. Алгоритмы компании подталкивали цены вверх, чтобы привлечь к участию больше водителей в те моменты, когда реальное или ожидаемое число свободных автомобилей не соответствовало спросу клиентов.

Практика привела к негативным отзывам о компании, когда в декабре 2014 года в Сиднее выходец из Ирана взял в заложники восемнадцать человек в кафе[148]. Множество людей спешили покинуть опасное место, и некоторые пытались уехать на такси Uber. Компьютерные системы компании в ответ на внезапный рост спроса повысили цены. Многим людям это показалось совершенно неадекватной реакцией на ситуацию, и компанию стали активно критиковать.

Uber обнародовала заявление: «Мы не могли немедленно остановить повышение цен [во время инцидента в Сиднее]. Это наша ошибка»[149]. После того случая компания добавила в программу возможность заблокировать автоматическое повышение цен при некоторых обстоятельствах. Вечером 13 ноября 2015 года исламские террористы произвели серию терактов в Париже. В течение 30 минут после первого из них Uber отменила повышение цен в городе[150], предупредив об опасности всех своих пользователей[151].

Примеры наподобие описанного показывают действенность совместного использования человеческого разума и алгоритмов. Однако если бизнес решится на такое, ему придется быть внимательным. Поскольку мы, люди, так зависим от своих суждений, так уверены в них и столь самонадеянны, многие из нас (если не большинство) поспешат заблокировать принятое компьютером решение, даже если оно будет лучшим. Но Крис Снейдерс, который исследовал прогнозы о закупках (мы рассказывали о нем ранее в этой главе), обнаружил, что «обычно по правильности решений эксперты, имеющие вспомогательные средства, находятся где-то между компьютерной моделью и экспертами без вспомогательных средств. Поэтому люди действуют эффективнее, если вы даете им модель. Но сама по себе модель все равно работает лучше»[152].

Мы поддерживаем идею о том, что человек должен участвовать в принятии решений, по тем причинам, что описали Мил и Дэвенпорт, но также выступаем за то, чтобы компании «следили за счетом» везде, где возможно. Им следует все время сравнивать эффективность решений компьютера и людей. Если блокирующие действия человека правильнее, чем поведение алгоритма по умолчанию, все идет хорошо. Если же дела обстоят не так, значит, нужно что-то менять, и первым делом стоит уведомить людей об их низком коэффициенте эффективности.

Обратная связь крайне важна, поскольку именно так обучается и улучшается Система 1. Вот что пишут Канеман и психолог Гэри Кляйн: «Вам не следует верить своему чутью. Нужно рассматривать его как важный ориентир, но всегда осознанно и обдуманно оценивать эти предположения, чтобы понять, имеют ли они смысл в данном контексте»[153]. Лучший способ сделать Систему 1 точнее и свести к минимуму ее искажения – показывать ей много примеров и давать обратную связь настолько быстро и часто, насколько это возможно.

ПЕРЕВЕРНИТЕ СТАНДАРТНОЕ ПАРТНЕРСТВО ДЛЯ БОЛЬШЕЙ ЯСНОСТИ

Самый современный метод принятия решений (его только начинают использовать некоторые компании) заключается в переворачивании обычного порядка с ног на голову: не машины предоставляют данные, чтобы человек на их основании принял решение, а суждение человека используется в качестве данных для работы компьютера. Компания Google стала пионером в применении такого метода к найму сотрудников. Это была важнейшая область для компании, поскольку обычный подход там давал плохие результаты.

Когда Ласло Бок был главой отдела по работе с персоналом в Google, он понял, что большая часть методов, используемых для отбора новых сотрудников, бесполезна. Его команда стала думать, чем объясняется разница в фактической производительности людей, и обнаружила, что от предварительной проверки рекомендаций она зависит примерно на 7 процентов, от прошлого опыта – на 3 процента, а от результатов бессистемных собеседований, которые по-прежнему широко распространены и начинаются типичными вопросами «Каковы ваши сильные стороны?» и «Пройдемся по вашему резюме?» – всего на 14 процентов. Бок говорил, что проблема с этими собеседованиями состояла в следующем:

Сложилась ситуация, когда собеседования проводились для того, чтобы подтвердить наше мнение о людях, а не для их истинного оценивания. Психологи называют это предвзятостью подтверждения. На основании ничтожно малого взаимодействия мы неосознанно выносим скоропалительное суждение, на которое значительно влияют наши собственные предрассудки и убеждения. Не сознавая этого, мы переходим от оценивания кандидата к выискиванию подтверждений того, что он соответствует нашему первоначальному впечатлению[154].

В этом случае в действие снова вступает Система 1, которая вносит в принятие важного решения искажения и ошибки.

Итак, как лучше нанимать сотрудников? Компания Google стала в значительной степени опираться на структурированные, формализованные собеседования, которые объясняют более 25 процентов дальнейшей фактической производительности. Процедура состоит из набора заранее определенных вопросов, предназначенных для оценивания, например, общей когнитивной способности человека. Все люди, проводящие собеседования в Google, используют этот подход и в целом задают одни и те же вопросы. Как объяснял Бок, «в итоге мы получили собеседование с согласованными критериями… Интервьюер должен указывать, как действовал кандидат в том или ином случае, каждый уровень выполнения задания четко установлен… Такие четкие критерии… изменили прежде путаные, размытые и сложные процедуры, сведя их к ряду задач с измеримыми результатами»[155].

При таком подходе суждения отдельных людей, проводящих собеседование, по-прежнему остаются ценными, однако они оцениваются количественно и используются для того, чтобы присвоить кандидатам какие-то численные оценки. Бок считает, что этот подход не обезличивает собеседование, не превращает его в формальность, а наоборот. Люди, устраивающиеся на работу в Google, ценят то, что с ними обращаются объективно и справедливо (80 процентов отвергнутых кандидатов, которые прошли собеседование по новой форме, сказали, что они рекомендовали бы друзьям подать заявление в Google), а решения о найме стали проще. Как заметил Бок: «Это позволяет увидеть четкую границу между превосходным и средним уровнем»[156].

РЕШЕНИЯ – СЛИШКОМ СЕРЬЕЗНОЕ ДЕЛО, ЧТОБЫ ДОВЕРЯТЬ ЕГО ЛЮДЯМ, ПРИНИМАЮЩИМ РЕШЕНИЯ[157]

Мысль о предстоящих изменениях в привычном взаимодействии разума и машины, в некоторых случаях даже переставляющих их местами, заставляет многих людей чувствовать себя неуютно. Большинство из нас верят в человеческую интуицию, в способность выносить суждения и принимать решения, особенно если речь идет не о ком-то постороннем, а именно о нас (мы обсуждали эту тему в разных аудиториях и практически не встречали человека, который бы признал, что его интуиция или рассудительность ниже среднего). Однако доказательства обратного настолько очевидны, что просто ошеломляют: в большинстве случаев, когда есть возможность сравнивать оба варианта, решения компьютерного аналога Системы 2 оказываются лучше, чем решения, принятые нами на основе обеих систем в нашем мозге. Но не стоит думать, что наши суждения бесполезны. Нет, просто их стоит улучшить. Это можно сделать с помощью рассмотренных нами подходов: позволить алгоритмам и компьютерным системам принимать решения, иногда используя в качестве входных данных человеческие суждения, а также разрешить людям в случае необходимости нажимать кнопку «стоп».

Кое-кто называет такой подход бесчеловечным. Некоторым кажется, что, если компьютеры станут играть главную роль в принятии решений, люди окажутся на обочине и будут выглядеть жалкими. Мы понимаем, что никого не радует мысль лишиться возможности принимать решения[158] и чувствовать себя кем-то вроде слуги компьютера. Однако значит ли это, что нужно и дальше незаслуженно выпускать заключенных на свободу или по ошибке оставлять их в тюрьме, лишь бы только судьи и комитеты, занимающиеся досрочным освобождением, могли продолжать работать так, как для них привычно? Значит ли это, что число неверных медицинских диагнозов должно и дальше оставаться выше, чем могло бы быть, лишь бы только врачи и психологи продолжали работать так, как они привыкли? Что компании должны и дальше принимать на работу неподходящих людей, лишь бы только менеджеры, проводящие собеседования, продолжали считать себя умными?

Нам кажется, что ответ на все эти вопросы – нет. Правильные решения очень важны для нормального существования общества: они помогают делать так, чтобы нужные ресурсы (от поездок на работу до здравоохранения) попадали к нужным людям в нужном месте в нужное время. Стандартное партнерство в понимании Хаммера и Чампи, в котором компьютеры ведут документацию, а HiPPO выносят оценки и принимают решения, часто не самый лучший способ этого добиться.

Сейчас вы уже, вероятно, не особо удивитесь, если мы скажем, что люди весьма плохо предсказывают будущее. В конце концов, прогнозирование и принятие решений почти неразделимые действия. Чтобы принять хорошее решение, обычно нужен точный прогноз в отношении некоторых аспектов будущего – иначе говоря, мы должны знать, что произойдет, если мы поступим так или иначе. Соответственно, если мы плохи в чем-то одном, то, очевидно, также плохи и в другом. И правда, многие ошибки Системы 1 и ее попытки срезать углы мешают нам делать хорошие прогнозы.

В 1984 году политолог Филип Тетлок и его коллеги взялись за многолетний проект: они собирались оценить точность прогнозов во многих сферах, таких как политика, экономика и международные отношения. Результаты проведенного исследования, как и многих других, упомянутых в этой главе, поразительны и не допускают различных толкований. После проверки более 82 тысяч прогнозов Тетлок обнаружил, что по точности предсказаний «люди едва превосходят шимпанзе»[159], бросающего дротики в мишень.

Это серьезная причина для беспокойства, поскольку мир бизнеса построен на предсказаниях. Многие из них вполне конкретны, например, как поведут себя определенные акции; какими окажутся направление и величина изменений будущих кредитных ставок; сколько смартфонов удастся продать в определенной стране в следующем году. Во многих других случаях прогнозы неявно заложены в предполагаемый план действий. Так, смена дизайна сайта строится на неявном предположении, что посетителям больше понравится новый вариант, и то же самое касается смены оформления в офисах филиалов банка. Яркий запуск какого-либо продукта строится на важном предположении, что клиенты отдадут ему предпочтение, а маркетинговая кампания подразумевает прогнозирование того, как их можно сформировать.

Более 800 000 книг и аудиокниг! 📚

Получи 2 месяца Литрес Подписки в подарок и наслаждайся неограниченным чтением

ПОЛУЧИТЬ ПОДАРОК