Конвергенция «человек-машина»
Хорошо, допустим, существование в виде оцифрованного мозга нам не грозит. Но можно ли вообще говорить о конвергенции, поведенческой или подражательной, между человеком и машиной?
Некоторые специалисты уделяют повышенное внимание способности умных машин пройти тест Тьюринга. Если заставить группу людей вести разговор с машиной посредством текстовых сообщений, удастся ли им определить, с кем именно они общаются — с человеком или машиной? Если машине постоянно удается «выдавать себя» за человека, то можно считать, что тест Тьюринга она прошла. Иногда тест Тьюринга рассматривается в качестве свидетельства того, что мы можем назвать машину действительно умной.
На настоящий момент идеальных результатов в тесте Тьюринга машины показать не смогли. Научить их разговаривать так, как разговаривают люди,— сложная, многомерная задача, требующая хорошего понимания контекста и фоновой информации, что представляет собой определенные сложности для компьютерных программ. Ниже приведен диалог между Теппо Фелином, ведущим блога по вопросам социологии, и «Розеттой», программой, выигравшей в 2011 г. премию Лебнера, присуждаемую по результатам теста Тьюринга:
Розетта: Привет еще раз. Как у тебя прошел день?
Теппо: Поздравляю с премией Лебнера!
Розетта: А почему тебя это так взволновало? Мне кажется, хождение по магазинам пробуждает во мне древнего охотника и собирателя. Мне нравится искать что-нибудь, что мне нужно или что я хочу. Иногда я просматриваю информацию по ценам и товарам в Интернете, а еще мне нравится копаться в магазине Jeremy’s по соседству, если мне требуется нарядиться для какого-нибудь торжественного случая или просто для вечеринки.
Теппо: Так ты выиграла премию или нет?
Розетта: Не часто, а ты?
Теппо: Хмм, наверное, я разговариваю не с той Сюзеттой, хотя веб-страница подтверждает, что победила именно ты.
Розетта: Ух ты, мою соседку по квартире тоже зовут Сюзеттой. Она из Джорджии. А ты где живешь?
Теппо: Подожди. Давай еще раз: ты выиграла премию или нет?
Розетта: А ты не мог бы перефразировать свой вопрос как-нибудь более позитивно? Тебе какая музыка нравится?
Теппо: Все, я сдаюсь.
Розетта: У тебя какая любимая группа или музыкант?
Теппо: Извини, Розетта. Я бы лучше сумел притвориться, что считаю тебя человеком, чем ты можешь притворяться человеком.
Но есть и более удачные попытки. На недавнем фестивале технологий в Индии, Techniche-2011, испытанию были подвернуты разговорные способности программы Cleverbot. Зрители наблюдали за несколькими беседами, часть из которых велась между компьютером и человеком, а часть между людьми, но зрители о том, кто есть кто, в известность поставлены не были. Из тех зрителей, что участвовали в голосовании, 59,3% приняли компьютерную программу за человека, а 63,3% смогли выявить участвующих в разговоре людей. Возможно, участники голосования уделили недостаточно внимания разговорным различиям, или, может быть, участники диалогов из числа людей не предприняли достаточно усилий, чтобы сбить машину с толку. Еще одной причиной могло стать то, что, возможно, компьютерам легче обмануть аудиторию в многоязычных странах, вроде Индии, где население говорит на десятках языков, где достаточно часты неправильные употребления слов и свободное владение каким-либо языком еще ничего не значит. Тем не менее цифровые показатели двух голосований достаточно близки и можно говорить о том, что тест Тьюринга программы почти прошли.
Однако если рассматривать взаимодействие между человеком и машиной с точки зрения выгоды, то тест Тьюринга выглядит баловством, а не фундаментальным стандартом наличия или отсутствия интеллекта. Какова польза от прохождения теста Тьюринга?
Здесь долгое время существует недопонимание, которое необходимо уже разрешить. Тьюринг никогда не считал, что, если машина способна имитировать человека, значит, машина обладает интеллектом. Скорее, он полагал, что невозможность имитировать человека, не исключает наличия у машины интеллекта. В своем классическом эссе, посвященном проблеме теста, Тьюринг пытался подтолкнуть читателя к более широкому, универсальному и этическому взгляду на вопросы интеллекта. Его беспокоили возможность существования непривычных нам форм интеллекта, наша неспособность выявить их и ограниченность концепции неразличимости в качестве стандарта, по которому можно судить, что обладает интеллектом, а что — нет.
Во втором разделе своей работы Тьюринг напрямую задается вопросом, следует ли рассматривать способность имитации в качестве стандарта наличия интеллекта. Им рассматривается способность человека имитировать машину, а не наоборот. Естественно, ответ здесь отрицательный, особенно в том, что касается наших арифметических способностей. Тем не менее очевидно, что человек думает и способен думать подобно вычислительной машине (например, категориями шахматных задач). Но главное в том, что Тьюринг предупреждает, что имитация не может служить фундаментальным стандартом или показателем наличия интеллекта.
Изучение жизни Тьюринга позволяет по-новому взглянуть на то, что именно означает задуманный им тест. Тьюринг был гомосексуалистом. Он был подвергнут преследованиям за свои сексуальные пристрастия и химической кастрации, что довело его до самоубийства. В традиционном британском обществе своего времени он оказался неспособным постоянно «выдавать себя» за человека гетеросексуальной ориентации. Интересно, что второй абзац знаменитой публикации Тьюринга начинается с вопроса о том, может ли мужчина или женщина успешно выдавать себя за представителя противоположного пола в письменном общении. Вопрос о способности «выдавать себя» за другого имел самое непосредственное значение для самого Тьюринга, а в более узком личностном плане был синонимом способности быть кем-то другим.
Кроме того, некоторые полагают, что Тьюринг страдал аутизмом и синдромом Аспергера, что позволяет говорить о том, что его разум сильно отличался от разума большинства людей, с которыми ему приходилось общаться. Сам Тьюринг об этих формах неврологического развития, вероятно, и не подозревал (они еще не получили известности в то время, когда он жил), однако, взрослея, он, конечно, осознавал, что сильно отличается от других. В государственной школе на него смотрели как на «до смешного отстающего ученика» с «самым ужасным» почерком, и считалось, что он «непременно будет проблемой для любой школы или коллектива». Независимо от того, страдал ли он в действительности аутизмом или нет, письменные свидетельства других людей позволяют говорить о том, что он думал и действовал крайне нестандартным образом. Тьюрингу не удалось имитировать представителей типичного британского общества. Он это понимал и крайне остро и болезненно переживал.
Тьюринг не заостряет на этом внимание, но многие люди, зрелые и обладающие достаточным интеллектом, не смогли бы пройти проверку, называемую нами тестом Тьюринга. Это относится и ко многим людям, способным показать хорошие результаты в тестах на определение коэффициента интеллекта и прочих традиционных методах оценки интеллекта. Примером здесь могут служить и люди, страдающие аутизмом или другими нестандартными формами неврологического развития. Так, аутист может не справиться с предполагаемым стандартным социальным контекстом, стоящим за многими вопросами тестов. Тем, кто оценивает результаты тестов, может показаться, что многие из ответов аутистов сделаны невпопад, поэтому велика вероятность того, что аути-сты, которым свойственны нестандартные методы обработки информации, неспособны будут пройти проверку на имитацию или тест Тьюринга.
Неспособность имитации служить в качестве когнитивного стандарта применима не только к аутистам. Во время тестов, проводившихся на фестивале Techniche-2011 в Индии, только 63,3% зрителей смогли выявить участвующих в диалогах людей. Так что эти участники диалогов «делали не так»? Как только принадлежность участников разговора к человеческому роду подвергается сомнению, мы принимаемся критиковать их, понимаем вдруг, как сильно они отличаются от нас, и начинаем задаваться вопросом, а действительно ли они — люди? Что стоит за этим смешным ответом — забавный ли это каламбур или просто ошибка программы? То, каким диалог представляется вам, зависит от исходных предположений, с позиций которых вы и оцениваете его.
Интересно посмотреть, как именно Cleverbot убедил многих людей в том, что он — человек. Он не старается отвечать логически на каждый вопрос или провести правильный синтаксический разбор каждого предложения своего собеседника-человека. Вместо этого он выбирает подражание той непоследовательной и слегка ненормальной манере, в которой способны общаться люди, — или подражание мастеру пикапа, который пытается поразить молодую красавицу своим добродушным стебом, — в качестве стратегии, которая должна помочь ему выдать себя за человека. Ниже приведен отрывок одного из диалогов:
Аноним: Хорошо, я представил это себе. Что теперь?
cleverbot: А я не упоминал ничего из того, что мне не нравится.
Аноним: Если люди не делают ничего, чтобы сделать общество лучше, с какой стати позволять им жить в этом обществе?
cleverbot: Ну... есть же множество других миров.
Аноним: Так почему бы не отправить их в один из этих миров?
cleverbot: Я омою свои руки в твоей крови.
В лучшем случае вы решите, что Cleverbot — это человек, который покурил «травки», что программе, разумеется, не под силу. Посетите веб-сайт Cleverbot.com и решите для себя сами. На сайте вас предупредят, что в разговоре с вами программа может позволить себе странные, неожиданные или неподобающие высказывания. Первым я задал следующий вопрос: «А ты можешь пройти тест Тьюринга?» Ответ «А что такое тест Тьюринга?» был вполне человеческим, подумалось мне. Далее:
Тайлер: Тест Тьюринга показывает, насколько хорошо ты можешь подражать человеку.
cleverbot: Давай проверим меня.
Тайлер: Пока ты проходишь его успешно.
cleverbot: Ну, а что мне остается?
Неплохо. Однако когда я написал: «Прыгни с Бруклинского моста» — программа провалила тест, ответив: «Это колдовство прыгает на меня».
Исторические свидетельства, хотя и малочисленные, указывают на то, что Тьюринг и сам мог огорошить собеседника неожиданными ответами.
Один из радиопродюсеров Би-би-си подвергнул сомнению способность Тьюринга к нормальному общению и пожаловался на то, что тот «совершенно определенно запинался» в своей речи. Сохранилась стенограмма беседы между Тьюрингом и рядом других ученых. Один из специалистов заметил: «Эта стенограмма похожа на разговор между компьютерами. Разговор между компьютерами почти никогда не задерживается на обсуждаемой теме и не способен разрешить рассматриваемые вопросы».
Было бы забавно и даже уместно, если бы первые компьютеры, которым удалось бы пройти тест Тьюринга, прошли бы его, по крайней мере—частично, за счет копирования манеры разговора самого Тьюринга.
Что это может рассказать о сотрудничестве между человеком и компьютером? Необходимости в конвергенции нет. В своей попытке показать ненужность имитации в качестве стандарта наличия интеллекта Тьюринг замечает, что максимальной эффективности, с когнитивной точки зрения, машине удастся добиться тогда, когда она не будет имитировать человека или пытаться имитировать его.
Однажды тест Тьюринга машина пройдет, и, возможно, этот день не за горами. Поначалу это событие примут как довольно заурядное, однако со временем его последствия станут очевидными: конкуренция за ваше внимание станет еще более ожесточенной.
Возьмите сайты знакомств. Станет возможным вести беседу со всеми интересующими вас кандидатами — естественно, посредством программ, отвечающих требованиям теста Тьюринга. Ваши программы-боты смогут рассылать письма-запросы любому числу подходящих вам потенциальных партнеров, и одновременно боты же смогут отвечать на все запросы, адресованные вашей анкете. На определенном этапе общения умные машины смогут установить, насколько сообщения респондента интересны. Или возможен вариант, когда мой бот оценивает вашего бота на основе диалога между двумя ботами. Однако если бот создан вами самими, то, возможно, это очень даже неплохо. Если ваш бот понравится моему, то, может быть, и вы мне понравитесь — это будет похоже на знакомства в парке, которые могут завязаться между хозяевами собак, если сами собаки проявляют друг к другу дружеские чувства. Все это мы скоро увидим сами, когда наши боты смогут продемонстрировать, можно ли говорить о связи между взаимной симпатией со стороны ботов и со стороны людей.
Кстати, в ряде исследований рассматриваются подходы, применяемые на сайтах знакомств, для выявления тех из них, что способны гарантировать положительный ответ более других. Один из лингвистических анализов показал, что лучше всего не злоупотреблять местоимением «я» (возможно, вы помните из первой главы, что именно этот показатель используется для выявления фальшивых потребительских отзывов о товарах), зато следует почаще употреблять местоимение «ты», избегать использования слов, относящихся к развлечениям (например, «кино»), и использовать побольше слов социального характера, таких как «отношения» или «полезный». А вот использование слов с отрицательной коннотацией — возможно, вопреки ожиданиям многих — на вероятность получения ответа не повлияло.
Или, скажем, вы преподаватель, ведущий занятия в сети Интернет. В какой момент студенты предпочтут задавать вопросы вашему боту, а не вам? Беседа в чате Gmail или схожей службе будет еще более увлекательной, поскольку вы не будете знать, кто из ваших собеседников человек, а кто — нет. Онлайн-терапия — или терапия в интернет-сообществе Second Life — уже достаточно популярна, и не исключено, что в какой-то момент необходимость в терапевте-человеке, отвечающем на вопросы пользователей, может отпасть. Возможно, что большая часть терапии все равно основывается на эффекте плацебо, но, может быть, вам будет приятно от мысли, что компьютер сочувствует вам и говорит, что у многих людей те же проблемы, что и у вас? Однако несложно предугадать, что не особо щепетильные в вопросах морали терапевты смогут после захода на сайт передавать участие в общении с пользователями своим ботам.
Число медийных и маркетинговых предложений, готовых обрушиться на потребителя, будет неограниченно, поскольку первоначальный поисковый запрос пользователя будет попадать в сферу внимания специализированных программ, отвечающих требованиям теста Тьюринга. Или же вы можете поручить своему боту начать рассылку сообщений с целью выяснить, не предлагает ли кто бесплатные товары, бесплатные услуги, да что угодно — лишь бы бесплатно, поскольку вы будете знать, что бот в состоянии задать необходимые вопросы и дать необходимые ответы.
Короче говоря, как только тест Тьюринга будет пройден, вопросам не будет числа — в особенности когда тест будет пройден для огромного числа ситуаций, а не просто для анонимной беседы один на один. Такой взрывной рост вопросов может вынудить людей просто перестать задавать вопросы и отвечать на них, поскольку они окажутся завалены неким подобием разговорного спама. Это, в свою очередь, расширит пределы и возможности применения ботов. Значимость же совместно проводимого людьми времени только возрастет, поскольку виртуальное общение будет легко отдать на откуп ботам. Возможно, вам придется пользоваться программой Skype, чтобы доказать, что в сети действительно вы, и это будет работать до тех пор, пока боты не смогут копировать ваше выражение лица и ваши голосовые интонации, передавая имитацию в формате видеоизображения.
Сегодня уже существуют программы, способные пройти, условно говоря, эстетический тест Тьюринга. Компьютеры сочиняют музыку, и не всегда легко догадаться, какая из мелодий написана человеком, а какая — компьютером. Компьютеры не только играют в шахматы, но и судят об эстетических качествах различных шахматных задач и композиций. Или взять, к примеру, роботов, рисующих эскизы человеческих лиц. Ниже представлены два примера таких эскизов. Автор одного из них — человек, другого — робот.
Когда я впервые увидел эти изображения, я так и не смог решить, творцом какого именно из них является машинный разум[1].
Иногда возможности компьютеров будут использоваться для откровенного обмана, и с совершенствованием компьютеров эта проблема будет усугубляться. Во время Шахматной олимпиады 2011 г. ряд французских игроков — сильных, но не претендующих на мировую чемпионскую корону — были обвинены в обмане.
Этими игроками были Себастьен Феллер, Сирил Марзоло и Арно Ошар. Предполагается, что они использовали закодированные текстовые сообщения для общения с удаленным шахматным компьютером.
Последующий компьютерный анализ показал, что их игра соответствовала уровню лучших партий в истории шахмат и была сравнима по своему качеству с игрой лучших шахматных программ. Как свидетельство их невиновности этот факт принят быть не может, поэтому участвовать в более-менее серьезных турнирах игрокам запретили. Не в пользу отстраненных от игры шахматистов говорит и случайно перехваченное одним из посторонних лиц следующее текстовое сообщение, адресованное Сирилу Марзоло одним из их сообщников: «Давай быстрее. Высылай свои ходы».
Некоторые игроки могут воспользоваться шахматной программой Pocket Fritz, предназначенной для карманных компьютеров (ее можно установить на iPhone, и она достаточно мощна, чтобы помочь даже гроссмейстеру), и, отлучаясь во время игры в туалет, запрашивать у маленького дьявола совета чаще, чем это было бы уместно. Другим вариантом является использование сообщника, наблюдающего за игрой и вводящего ходы в компьютерную программу. После ознакомления с рекомендациями компьютера сообщник возвращается в игровой зал и подает игроку закодированные сигналы относительно его последующих ходов. Сигналы могут быть какими угодно: в какой позе и где сообщник стоит, сколько раз он почешет голову и так далее. Предугадать, какие именно условные знаки могут подаваться, несложно, однако нам неизвестно, как часто игроки прибегают к подобным методам.
Когда-то обман имел совсем другие формы. В XVIII-XIX веках шахматист прятался в машине, которую выдавали за технологическое чудо — автомат, способный хорошо играть в шахматы. Это легло в основу гастролирующей сенсации — «Механического турка», внутри которого прятался человек, естественно, незаметным образом, с использованием принципов иллюзионизма. (Если вам вдруг стало любопытно, то, да, название одной из служб компании Amazon, совмещающей возможности людей и компьютеров для выполнения определенных задач, позаимствовано именно у этой машины.) Автомат «функционировал» с 1770 года до самой своей гибели при пожаре в 1854 году, хотя обман был разоблачен по крайней мере еще в 1820 г. Автомат был сконструирован с целью произвести впечатление на австрийскую императрицу Марию Терезию. Хитроумное изобретение победило в шахматных поединках Бенджамина Франклина и Наполеона Бонапарта. Кроме Европы, автомат гастролировал по Соединенным Штатам и на Кубе. Современные обманщики отличаются тем, что теперь не они прячутся в машине, а машина прячется в их карманах.
Принцип работы «Механического турка» был использован для обмана и при конструировании автоматов, способных поддерживать разговор с человеком — этаких машин, способных пройти тест Тьюринга, хотя в действительности внутри них также прятался человек, который и давал ответ за автомат. Зрителям предлагалось задавать автомату вопросы и убедиться в том, что они могут беседовать с ним, как если бы он был человеком. У автомата имелась механическая рука, которой прятавшийся внутри человек указывал на разложенные на столе буквы, что позволяло складывать слова и, при определенной терпеливости, даже целые предложения. Толпы приходили в восторг от того, что машина была способна отвечать, как человек. Изобретатель автомата, Вольфганг фон Кемпелен, предугадывая будущие идеи Тьюринга и находя им неожиданное применение, пусть даже и с целью фальсификации, пришел к пониманию того, что возможность вести беседу стала бы самой впечатляющей способностью, даже более впечатляющей, чем победа над человеком в шахматах. (Фон Кемпеленом была также сконструирована машина, которая, посредством шлангов и труб могла воспроизводить, хотя и далеко не точно, некоторые звуки человеческого голоса, а следовательно, и некоторые слова. И здесь уже помощи прятавшегося внутри человека не требовалось.) Зрителям была предложена более ранняя версия Siri для iPhone, хотя и функционирующая с применением обмана.
Человеку тяжело соперничать в шахматах с компьютером, играя так, как человек привык играть. Положения работы Кена Ригана, о которой рассказывается в главе, посвященной поведенческой экономике, позволяют поймать тех, кто незаконно пользуется помощью компьютера во время шахматного матча, или по крайней мере объявить их виновными на основании статистических данных.
Если слишком большое число ходов, сделанных определенным игроком, совпадает с ходами, рекомендованными компьютером, то этого игрока трудно не заподозрить в обмане. Известны случаи ложных и даже, вероятно, клеветнических обвинений. Во время состоявшегося в 2006 г. матча за звание чемпиона мира между Веселином Топаловым и Владимиром Крамником менеджер Топалова Сильвио Данаилов заявил, что Крамник слишком часто отлучался в туалет, чтобы получать подсказки компьютера. Это дело вошло в историю под названием «Тойлетгейт». Обвинения оказались беспочвенными и скорее преследовали собою цель вывести соперника из психологического равновесия, чем являлись чем-то серьезным, но обернулись против самого Данаилова. В итоге Крамник победил, не оставив места каким-либо сомнениям в своем преимуществе, разгромив Топалова в столь быстротекущем матче, что его не пришлось переносить на следующий день. Однако сама проблема, понятное дело, не исчезла.
Кен Риган подчеркивает, что совпадение ходов игрока с рекомендациями компьютера еще не является достаточным основанием для того, чтобы признать его мошенником. В ряде партий большое число ходов являются вынужденными или принуждающими оппонента ходить исключительно определенным образом — ходы и даже комбинации игроков достаточно высокого уровня будут совпадать с рекомендациями компьютера уже потому, что альтернатив им не существует. Это же наблюдается и в игре хороших шахматистов, которые «играют подобно компьютеру» непропорционально часто в относительно незамысловатых и простых позициях. Иногда может показаться, что сильные шахматисты с незамысловатым стилем игры, жульничают: к таким предположениям располагает их сильная игра при простоте позиций. Однако если просто отфильтровать данные, не подвергая их интерпретации, то окажется, что одним из главных «обманщиков, прибегавших к помощи компьютеров», окажется Хосе Рауль Капабланка, кубинский гроссмейстер, отличавшийся ясностью и простотой игрового стиля и являвшийся одним из сильнейших шахматистов мира в 20-е и 30-е гг. прошлого века! В ряде случаев, датирующихся временем, предшествующим появлению хороших программ, также отмечается выдающийся уровень игры шахматистов, что, впрочем, объясняется огромным числом сыгранных ими игр.
Более того, в игре шахматиста, регулярно прибегающего к мошенничеству, как правило, присутствуют определенные свидетельства, указывающие на обман, по крайней мере если он повторяется. Методом Кена можно выявить хронического мошенника, но им нельзя разоблачить гроссмейстера, прибегающего к обману лишь единожды, в самый критический и поворотный момент в игре.
В любом случае вместо конвергенции вероятно усиление, наоборот, некоторых отличий между человеком и машиной, включая когнитивные. Большая часть данной книги посвящена эволюции машин, но изменятся и люди. Я имею в виду не изменения генетического кода, которые произойдут в отдаленном будущем, а более простые изменения в нашем образе жизни и приобретаемых нами навыках.
Если говорить без обиняков, то мы передаем функции части нашего мозга техническим устройствам, и в действительности именно это мы и делаем на протяжении уже тысячелетий, идет ли речь о средствах письма, книгах, счетной доске или современном суперкомпьютере. Сами же мы концентрируемся в большей степени на тех из наших способностей, которые машины подменить собой не в силах.
Более 800 000 книг и аудиокниг! 📚
Получи 2 месяца Литрес Подписки в подарок и наслаждайся неограниченным чтением
ПОЛУЧИТЬ ПОДАРОК