Могут ли машины мыслить? Мыслят ли «думающие» машины? Имитация мышления что такое машина тьюринга.

Алан Тьюринг предложил эксперимент, который позволил бы проверить наличие сознания у компьютера, а Джон Сёрль предложил мысленный эксперимент, который должен опровергать эксперимент Тьюринга. Разбираемся в обоих аргументах и заодно пытаемся понять, что такое сознание.

Тест Тьюринга

В 1950 году в работе «Вычислительные машины и разум» британский математик Алан Тьюринг предложил свой знаменитый тест, позволяющий, по его мнению, определить, способна ли та или иная вычислительная машина мыслить. Тест, по сути дела, копировал распространённую тогда в Британии игру в имитацию. В ней участвовали три человека: ведущий и мужчина с женщиной. Ведущий сидел за ширмой и мог общаться с двумя другими игроками только с помощью записок. Его задача состояла в том, чтобы угадать, какого пола каждый из его собеседников. При этом они вовсе не обязаны были отвечать правдиво на его вопросы.

Тот же самый принцип Тьюринг использовал и в тесте на наличие интеллекта у машины. Только ведущий в нём должен угадать не пол собеседника, а является ли он машиной или человеком. Если машина сможет достаточно успешно имитировать поведение человека и запутывать ведущего, то она пройдёт тест и, предположительно, докажет, что у неё есть сознание и что она мыслит.

Молодой Алан Тьюринг (фотография на паспорт).
Источник: Wikimedia.org

Китайская комната

В 1980 году философ Джон Сёрль предложил мысленный эксперимент, который мог бы опровергнуть позицию Тьюринга.

Представим себе следующую ситуацию. Человек, который не говорит и не читает на китайском языке, попадает в комнату. В этой комнате есть таблички с китайскими символами, а также книга на том языке, на котором разговаривает этот человек. В книге описано, что делать с символами, если в комнату попадут другие символы. Вне комнаты находится независимый наблюдатель, который говорит по-китайски. Его задача состоит в том, чтобы разговаривать с человеком из комнаты, например посредством записок, и выяснить, понимает ли его собеседник китайский язык.

Цель эксперимента Сёрля – продемонстрировать, что даже если наблюдатель поверит, что его собеседник умеет говорить по-китайски, человек в комнате всё равно не будет знать китайский язык. Он не будет понимать символов, которыми оперирует. Точно так же и «машина Тьюринга», которая смогла бы пройти одноимённый тест, не понимала бы символов, которые она использует, и, соответственно, не обладала бы сознанием.

По мнению Сёрля, даже если бы подобная машина смогла ходить, разговаривать, оперировать предметами и изображать из себя полноценного мыслящего человека, она всё равно не обладала бы сознанием, поскольку она только исполняла бы заложенную в неё программу, отвечая заданными реакциями на заданные сигналы.

Философский зомби

Однако представим себе следующую ситуацию, предложенную Дэвидом Чалмерсом в 1996 году. Представим себе так называемого «философского зомби» - некоторое существо, которое по всем признакам похоже на человека. Оно выглядит как человек, разговаривает как человек, реагирует на сигналы и раздражители как человек и вообще во всех возможных ситуациях ведёт себя как человек. Но при этом у него отсутствует сознание, и оно не испытывает никаких чувств. Оно реагирует на то, что причинило бы человеку боль или удовольствие, как если бы оно было человеком, который испытывает эти ощущения. Но при этом оно не переживает их на самом деле, а только имитирует реакцию.

Возможно ли такое существо? Как нам отличить его от реального человека, который испытывает чувства? Что вообще отличает философского зомби от людей? Может ли быть так, что они среди нас? А может быть, все, кроме нас, - философские зомби?

Дело в том, что нам в любом случае недоступен внутренний субъективный опыт других людей. Нам недоступно никакое сознание, кроме нашего собственного. Мы изначально только предполагаем, что у других людей оно есть, что они похожи на нас, потому что у нас в общем-то нет особых поводов в этом сомневаться, ведь другие ведут себя так же, как и мы.

Алан Тьюринг опубликовал большую статью, позже ставшую хрестоматийной: Computing Machinery and Intelligence. На русский язык статья часто переводится так: Может ли машина мыслить? В разделе статьи «Противоположные точки зрения по основному вопросу» автор обсудил различные возражения, мифы, связанные с искусственным интеллектом, моделированием творческих процессов и дал свои комментарии…

1. Теологическое возражение. «Мышление есть свойство бессмертной души человека, Бог дал бессмертную душу каждому мужчине и каждой женщине, но не дал души никакому другому животному и машинам. Следовательно, ни животное, ни машина не могут мыслить».

Я не могу согласиться ни с чем из того, что было только что сказано, и попробую возразить, пользуясь теологическими же терминами. Я счёл бы данное возражение более убедительным, если бы животные были отнесены в один класс с людьми, ибо, на мой взгляд, между типичным одушевлённым и типичным неодушевлённым предметами имеется большее различие, чем между человеком и другими животными. Произвольный характер этой ортодоксальной точки зрения станет ещё яснее, если мы рассмотрим, в каком свете она может представиться человеку, исповедующему какую-нибудь другую религию. Как, например, христиане отнесутся к точке зрения мусульман, считающих, что у женщин нет души? Но оставим этот вопрос и обратимся к основному возражению. Мне кажется, что из приведённого выше аргумента со ссылкою на душу у человека следует серьёзное ограничение всесильности Всемогущего.

Пусть даже существуют определённые вещи, которые Бог не может выполнить, - например, сделать так, чтобы единица оказалась равной двум; но кто же из верующих не согласился бы с тем, что Он волен вселить душу в слона, если найдет, что слон этого заслуживает? Мы можем искать выход в предположении, что Он пользуется своей силой лишь в сочетании с мутациями, совершенствующими мозг настолько, что последний оказывается в состоянии удовлетворить требованиям души, которую Он желает вселить в слона. Но точно так же можно рассуждать и в случае машин. Это рассуждение может показаться отличным лишь потому, что в случае машин его труднее «переварить». По сути дела это означает, что мы считаем весьма маловероятным, чтобы Бог счёл обстоятельства подходящими для того, чтобы дать душу машине, т.е. речь идёт в действительности о других аргументах, которые обсуждаются в остальной части статьи. Пытаясь построить мыслящие машины, мы поступаем по отношению к Богу более непочтительно, узурпируя Его способность создавать души, чем мы делаем это, производя потомство; в обоих случаях мы являемся лишь орудиями его воли и производим лишь убежища для душ, которые творит опять-таки Бог.

Всё это, однако, пустые рассуждения. В пользу чего бы ни приводили такого рода теологические доводы, они не производят на меня особого впечатления. Однако в старину такие аргументы находили весьма убедительными. Во времена Галилея полагали, что такие церковные тексты, как «Стояло солнце среди неба и не спешило к западу почти целый день» (Иисус Навин, 10, 3) и «Ты поставил землю на твёрдых основах; не поколеблется она в веки и веки» (псалом 103, 5), в достаточной мере опровергали теорию Коперника . В наше время такого рода доказательство представляется беспочвенным. Но, когда современный уровень знаний ещё не был достигнут, подобные доводы производили совсем другое впечатление.

2. Возражение со «страусиной» точки зрения «Последствия машинного мышления были бы слишком ужасны. Будем надеяться и верить, что машины не могут мыслить».

Это возражение редко выражают в столь открытой форме. Но оно звучит убедительно для большинства из тех, кому оно вообще приходит в голову. Мы склонны верить, что человек в интеллектуальном отношении стоит выше всей остальной природы. Лучше всего, если бы удалось доказать, что человек необходимо является самым совершенным существом, ибо в таком случае он может бояться потерять своё доминирующее положение. Ясно, что популярность теологического возражения связана именно с этим чувством. Это чувство, вероятно, особенно сильно у людей интеллигентных, так как они ценят силу мышления выше, чем остальные люди, и более склонны основывать свою веру в превосходство человека на этой способности. Я не считаю, что это возражение является достаточно существенным для того, чтобы требовалось какое-либо опровержение. Утешение здесь было бы более подходящим; не предложить ли искать его в учении о переселении душ?

3. Математическое возражение. Имеется ряд результатов математической логики, которые можно использовать для того, чтобы показать наличие определённых ограничений возможностей машин с дискретными состояниями. Наиболее известный из этих результатов - теорема Гёделя - показывает, что в любой достаточно мощной логической системе можно сформулировать такие утверждения, которые внутри этой системы нельзя ни доказать, ни опровергнуть, если только сама система непротиворечива. Имеются и другие, в некотором отношении аналогичные, результаты, принадлежащие Чёрчу , Клини, Россеру и Тьюрингу . Результат последнего особенно удобен для нас, так как относится непосредственно к машинам, в то время как другие результаты можно использовать лишь как сравнительно косвенный аргумент (например, если бы мы стали опираться на теорему Гёделя , нам понадобились бы ещё и некоторые средства описания логических систем в терминах машин и машин в терминах логических систем). Результат Тьюринга относится к такой машине, которая, в сущности, является цифровой вычислительной машиной с неограниченной ёмкостью памяти, и устанавливает, что существуют определённые вещи, которые эта машина не может выполнить. Если она устроена так, чтобы давать ответы на вопросы, как в «игре в имитацию», то будут вопросы, на которые она или даст неверный ответ, или не сможет дать ответа вообще, сколько бы ни было ей предоставлено для этого времени. Таких вопросов, конечно, может быть много, и на вопросы, на которые нельзя получить ответ от одной машины, можно получить удовлетворительный ответ от другой. Мы здесь, разумеется, предполагаем, что вопросы принадлежат скорее к таким, которые допускают ответ «да» или «нет», чем к таким, как: «Что вы думаете о Пикассо ?». Следующего типа вопросы относятся к числу таких, на которые, как нам известно, машина не может дать ответ: «Рассмотрим машину, характеризующуюся следующим: …Будет ли эта машина всегда отвечать «да» на любой вопрос?» Если на место точек поставить описание (в какой-либо стандартной форме, например, подобной той, которая была использована нами в разделе V) такой машины, которая находится в некотором сравнительно простом отношении к машине, к которой мы обращаемся с нашим вопросом, то можно показать, что ответ на этот вопрос окажется либо неверным, либо его вовсе не будет. В этом и состоит математический результат; утверждают, будто он доказывает ограниченность возможностей машин, которая не присуща разуму человека. […]

Ответ на это возражение вкратце состоит в следующем. Установлено, что возможности любой конкретной машины ограничены, однако в разбираемом возражении содержится голословное, без какого бы то ни было доказательства, утверждение, что подобные ограничения не применимы к разуму человека. Я не думаю, чтобы можно было так легко игнорировать эту сторону дела. Когда какой-либо из такого рода машин задают соответствующий критический вопрос и она даёт определённый ответ, мы заранее знаем, что ответ будет неверным, и это даёт нам чувство известного превосходства. Не является ли это чувство иллюзорным? Несомненно, оно бывает довольно искренним, но я не думаю, чтобы ему следовало придавать слишком большое значение. Мы сами слишком часто даём неверные ответы на вопросы, чтобы то чувство удовлетворения, которое возникает у нас при виде погрешимости машин, имело оправдание. Кроме того, чувство превосходства может относиться лишь к машине, над которой мы одержали свою - в сущности весьма скромную - победу. Не может быть и речи об одновременном торжестве над всеми машинами. Значит, короче говоря, для любой отдельной машины могут найтись люди, которые умнее её, однако в этом случае снова могут найтись другие, ещё более умные машины, и т.д. Я думаю, что те, кто разделяет точку зрения, выраженную в математическом возражении, как правило, охотно примут «игру в имитацию» в качестве основы дальнейшего рассмотрения. Те же, кто убежден в справедливости двух предыдущих возражений, будут, вероятно, вообще не заинтересованы ни в каком критерии.

Может ли машина мыслить?

Не совсем ясно, как компьютер может делать что-либо, чего "нет в программе"? Разве можно скомандовать кому бы то ни было рассуждать, догадываться, делать выводы?

Противники тезиса о "мыслящих машинах" обычно считают достаточным сослаться на общеизвестный факт: компьютер в любом случае делает лишь то, что задано в его программе, - и, следовательно, никогда не сможет "думать", так как "мысли по программе" уже нельзя считать "мыслями".

Это и верно, и неверно. Строго говоря, действительно: если компьютер делает не то, что в данный момент предписывается ему программой, то его следует считать испортившимся.

Однако то, что представляется "программой" человеку, и то, что является программой для компьютера, - вещи очень разные. Ни один компьютер не сможет выполнить "программу" похода в магазин за продуктами, которую вы вкладываете в голову десятилетнего сына, - даже если эта "программа" включает только совершенно однозначные инструкции.

Разница заключается в том, что компьютерные программы состоят из огромного количества гораздо более мелких, частных команд. Из десятков и сотен таких микрокоманд складывается один шаг, из тысяч и даже миллионов - вся программа похода за продуктами в том виде, в каком ее смог бы выполнить компьютер.

Сколь бы смешным ни казалось нам такое мелочное регламентирование, для компьютера этот способ является единственно применимым. И самое удивительное - что он дает компьютеру возможность быть гораздо более "непредсказуемым", чем принято обычно считать!

В самом деле: если бы вся программа состояла из одного приказа "сходить за продуктами", то компьютер по определению не смог бы сделать ничего другого - он упрямо шел бы в универсам, что бы ни происходило вокруг. Иными словами, хотя для понимания короткой программы обязателен "человеческий" интеллект, результат такой программы - выполняй ее компьютер, а не человек - был бы детерминирован весьма жестко.

Мы, однако, вынуждены давать компьютерам гораздо более подробные инструкции, определяя малейший их шаг. При этом нам приходится добавлять в программу и такие инструкции, которые впрямую не относятся к данной задаче. Так, в нашем примере роботу необходимо сообщить правила перехода улицы (и правило "если на тебя едет машина, отпрыгивай в сторону").

Эти инструкции обязательно должны включать в себя проверку некоторых условий для принятия решений, обращение за справками (о погоде, о местоположении магазинов) к тем или иным базам данных, сравнение важности различных обстоятельств и многое другое. В результате компьютер с такой программой получает гораздо больше "степеней свободы" - существует очень много мест, в которых он может отклониться от пути к конечной цели.

Разумеется, в подавляющем большинстве случаев эти отклонения будут нежелательными, и мы стараемся создать для работы компьютера такие условия, в которых риск "выскакивающего из-за угла автомобиля" был бы минимальным. Но жизнь есть жизнь, и все мыслимые сюрпризы предусмотреть невозможно. Вот почему компьютер способен удивить как неожиданно "разумной" реакцией на, казалось бы, непредсказуемые обстоятельства, так и невероятной "глупостью" даже в самых ординарных ситуациях (чаще, к сожалению, последнее).

Именно построение сложных программ на основе детального анализа мельчайших шагов, из которых складывается процесс мышления у человека, и составляет современный подход к созданию "думающих машин" (во всяком случае, один из подходов). Конечно, сложность - это далеко не все. И все же из ученых, занимающихся этой проблемой, мало кто сомневается в том, что "умные" программы XXI века будут отличаться от современных прежде всего неизмеримо большей сложностью и количеством элементарных инструкций.

Многие современные системы обработки информации уже настолько сложны, что некоторые особенности их поведения просто невозможно вывести из самих программ - их приходится в буквальном смысле слова исследовать, ставя эксперименты и проверяя гипотезы. И наоборот - многие черты разумной деятельности человека, которые на первый взгляд кажутся едва ли не "озарениями свыше", уже достаточно хорошо моделируются сложными программами, состоящими из множества простых шагов.

Классический искусственный интеллект едва ли будет воплощен в мыслящих машинах; предел человеческой изобретательности в этой области, по-видимому, ограничится созданием систем, имитирующих работу мозга.

В науке об искусственном интеллекте (ИИ) происходит революция. Чтобы объяснить ее причины и смысл и представить в перспективе, мы прежде должны обратиться к истории.

В начале 50-х годов традиционный, несколько расплывчатый вопрос о том, может ли машина мыслить, уступил более доступному вопросу: может ли мыслить машина, манипулирующая физическими символами в соответствии с правилами, учитывающими их структуру. Этот вопрос сформулирован точнее, потому что за предшествовавшие полвека формальная логика и теория вычислений существенно продвинулись вперед. Теоретики стали высоко оценивать возможности абстрактных систем символов, которые претерпевают преобразования в соответствии с определенными правилами. Казалось, что если эти системы удалось бы автоматизировать, то их абстрактная вычислительная мощь проявилась бы в реальной физической системе. Подобные взгляды способствовали рождению вполне определенной программы исследований на достаточно глубокой теоретической основе.

Может ли машина мыслить?

Было много причин для того, чтобы ответить да. Исторически одна из первых и наиболее глубоких причин заключалась в двух важных результатах теории вычислений. Первый результат был тезисом Черча, согласно которому каждая эффективно вычислимая функция является рекурсивно вычислимой. Термин «эффективно вычислимая» означает, что существует некая «механическая» процедура, с помощью которой можно за конечное время вычислить результат при заданных входных данных. «Рекурсивно вычислимая» означает, что существует конечное множество операций, которые можно применить к заданному входу, а затем последовательно и многократно применять к вновь получаемым результатам, чтобы вычислить функцию за конечное время. Понятие механической процедуры не формальное, а скорее интуитивное, и потому тезис Черча не имеет формального доказательства. Однако он проникает в самую суть того, чем является вычисление, и множество различных свидетельств сходится в его подтверждение.

Второй важный результат был получен Аланом М. Тьюрингом, продемонстрировавшим, что любая рекурсивно вычислимая функция может быть вычислена за конечное время с помощью максимально упрощенной машины, манипулирующей символами, которую позднее стали называть универсальной машиной Тьюринга. Эта машина управляется рекурсивно применимыми правилами, чувствительными к идентичности, порядку и расположению элементарных символов, которые играют роль входных данных.

Из этих двух результатов вытекает очень важное следствие, а именно что стандартный цифровой компьютер, снабженный правильной программой, достаточно большой памятью и располагающий достаточным временем, может вычислить любую управляемую правилами функцию с входом и выходом. Другими словами, он может продемонстрировать любую систематическую совокупность ответов на произвольные воздействия со стороны внешней среды.

Конкретизируем это следующим образом: рассмотренные выше результаты означают, что соответственно запрограммированная машина, манипулирующая символами (в дальнейшем будем называть ее МС-машиной), должна удовлетворять тесту Тьюринга на наличие сознательного разума. Тест Тьюринга - это чисто бихевиористский тест, тем не менее его требования очень сильны. (Насколько состоятелен этот тест, мы рассмотрим ниже, там где встретимся со вторым, принципиально отличным «тестом» на наличие сознательного разума.) Согласно первоначальной версии теста Тьюринга, входом для МС-машины должны быть вопросы и фразы на естественном разговорном языке, которые мы набираем на клавиатуре устройства ввода, а выходом являются ответы МС-машины, напечатанные устройством вывода. Считается, что машина выдержала этот тест на присутствие сознательного разума, если ее ответы невозможно отличить от ответов, напечатанных реальным, разумным человеком. Конечно, в настоящее время никому не известна та функция, с помощью которой можно было бы получить выход, не отличающийся от поведения разумного человека. Но результаты Черча и Тьюринга гарантируют нам, что какова бы ни была эта (предположительно эффективная) функция, МС-машина соответствующей конструкции сможет ее вычислить.

Это очень важный вывод, особенно если учесть, что тьюринговское описание взаимодействия с машиной при помощи печатающей машинки представляет собой несущественное ограничение. То же заключение остается в силе, даже если МС-машина взаимодействует с миром более сложными способами: с помощью аппарата непосредственного зрения, естественной речи и т. д. В конце концов более сложная рекурсивная функция все же остается вычислимой по Тьюрингу. Остается лишь одна проблема: найти ту несомненно сложную функцию, которая управляет ответными реакциями человека на воздействия со стороны внешней среды, а затем написать программу (множество рекурсивно применимых правил), с помощью которой МС-машина вычислит эту функцию. Вот эти цели и легли в основу научной программы классического искусственного интеллекта.

Первые результаты были обнадеживающими

МС-машины с остроумно составленными программами продемонстрировали целый ряд действий, которые как будто относятся к проявлениям разума. Они реагировали на сложные команды, решали трудные арифметические, алгебраические и тактические задачи, играли в шашки и шахматы, доказывали теоремы и поддерживали простой диалог. Результаты продолжали улучшатьсгя с появлением более емких запоминающих устройств, более быстродействующих машин, а также с разработгюй более мощных и изощренных программ. Классический, или «построенный на программировании», ИИ представлял собой очень живое и успешное научное направление почти со всех точек зрения. Периодически высказывавшееся отрицание того, что МС-машины в конечном итоге будут способны мыслить, казалось проявлением необъективности и неинформированности. Свидетельства в пользу положительного ответа на вопрос, вынесенный в заголовок статьи, казались более чем убедительными.

Конечно, оставались кое-какие неясности. Прежде всего МС-машины не очень-то напоминали человеческий мозг. Однако и здесь у классического ИИ был наготове убедительный ответ. Во-первых, физический материал, из которого сделана МС-машина, по существу не имеет никакого отношения к вычисляемой ею функции. Последняя зафиксирована в программе. Во-вторых, техничекие подробности функциональной архитектуры машины также не имеют значения, поскольку совершенно различные архитектуры, рассчитанные на работу с совершенно различными программами, могут тем не менее выполнять одну и ту же функцию по входу-выходу.

Поэтому целью ИИ было найти функцию, по входу и выходу характерную для разума, а также создать наиболее эффективную из многих возможных программ для того, чтобы вычислить эту функцию. При этом говорили, что тот специфичный способ, с помощью которого функция вычисляется человеческим мозгом, не имеет значения. Этим и завершается описание сущности классического ИИ и оснований для положительного ответа на вопрос, поставленный в заголовке статьи.

Может ли машина мыслить? Были также кое-какие доводы и в пользу отрицательного ответа. На протяжении 60-х годов заслуживающие внимания отрицательные аргументы встречались относительно редко. Иногда высказывалось возражение, заключающееся в том, что мышление - это не физический процесс и протекает он в нематериальной душе. Однако подобное дуалистическое воззрение не выглядело достаточно убедительным ни с эволюционной, ни с логической точки зрения. Оно не оказало сдерживающего влияния на исследования в области ИИ.

Гораздо большее внимание специалистов по ИИ привлекли соображения иного характера. В 1972 г. Хьюберт Л. Дрейфус опубликовал книгу, в которой резко критиковались парадные демонстрации проявлений разума у систем ИИ. Он указывал на то, что эти системы не адекватно моделировали подлинное мышление, и вскрыл закономерность, присущую всем этим неудачным попыткам. По его мнению, в моделях отсутствовал тот огромный запас неформализованных общих знаний о мире, которым располагает любой человек, а также способность, присущая здравому рассудку, опираться на те или иные составляющие этих знаний,в зависимости от требований изменяющейся обстановки. Дрейфус не отрицал принципиальной возможности создания искусственной физичесгсой системы, способной мыслить, но он весьма критически отнесся к идее о том, что это может быть достигнуто только за счет манипулирования символами с помощью рекурсивно применяемых правил.

В кругах специалистов по искусственному интеллекту, а также философов рассуждения Дрейфуса были восприняты главным образом как недальновидные и необъективные, базирующиеся на неизбежных упрощениях, присущих этой еще очень молодой области исследований. Возможно, указанные недостатки действительно имели место, но они, конечно, были временными. Настанет время, когда более мощные машины и более качественные программы позволят избавиться от этих недостатков. Казалось, что время работает на искусственный интеллект. Таким образом, и эти возражения не оказали сколько-нибудь заметного влияния на дальнейшие исследования в области ИИ.

Однако оказалось, что время работало и на Дрейфуса : в конце 70-х - начале 80-х годов увеличение быстродействия и объема памяти компьютеров повышало их «умственные способности» ненамного. Выяснилось, например, что распознавание образов в системах машинного зрения требует неожиданно большого объема вычислений. Для получения практически достоверных результатов нужно было затрачивать все больше и больше машинного времени, намного превосходя время, требуемое для выполнения тех же задач биологической системе зрения. Столь медленный процесс моделирования настораживал: ведь в компьютере сигналы распространяются приблизительно в миллион раз быстрее, чем в мозге, а тактовая частота центрального процессорного устройства компьютера примерно во столько же раз выше частоты любых колебаний, обнаруженных в мозге. И все же на реалистических задачах черепаха легко обгоняет зайца.

Кроме того, для решения реалистических задач необходимо, чтобы компьютерная программа обладала доступом к чрезвычайно обширной базе данных. Построение такой базы данных уже само по себе представляет довольно сложную проблему, но она усугубляется еще одним обстоятельством: каким образом обеспечить доступ к конкретным, зависящим от контекста фрагментам этой базы данных в реальном масштабе времени. По мере того как базы данных становились все более емкими, проблема доступа осложнялась. Исчерпывающий поиск занимал слишком много времени, а эвристические методы не всегда приводили к успеху. Опасения, подобные тем, что высказывал Дрейфус, начали разделять даже некоторые специалисты, работающие в области искусственного интеллекта.

Приблизительно в это время (1980 г.) Джон Сирл высказал принципиально новую критическую концепцию, ставившую под сомнение само фундаментальное предположение классической программы исследований по ИИ, а именно - идею о том, что правильное манипулирование структурированными символами путем рекурсивного применения правил, учитывающих их структуру, может составлять сущность сознательного разума.

Основной аргумент Сирла базировался на мысленном эксперименте, в котором он демонстрирует два очень важных обстоятельства. Во-первых, он описывает МС-машину, которая (как мы должны понимать) реализует функцию, по входу и выходу способную выдержать тест Тьюринга в виде беседы, протекающей исключительно на китайском языке. Во-вторых, внутренняя структура машины такова, что независимо от того, какое поведение она демонстрирует, у наблюдателя не возникает сомнений в том, что ни машина в целом, ни любая ее часть не понимают китайского языка. Все, что она в себе содержит, - это говорящий только по-английски человек, выполняющий записанные в инструкции правила, с помощью которых следует манипулировать символами, входящими и выходящими через окошко для почтовой корреспонденции в двери. Короче говоря, система положительно удовлетворяет тесту Тьюринга, несмотря на то что не обладает подлинным пониманием китайского языка и реального семантического содержания сообщений (см. статью Дж. Сирла «Разум мозга - компьютерная программа?»).

Отсюда делается общий вывод, что любая система, просто манипулирующая физическими символами согласно чувствительным к структуре правилам, будет в лучшем случае лишь жалкой пародией настоящего сознательного разума, поскольку невозможно породить «реальную семантику», просто крутя ручку «пустого синтаксиса». Здесь следует заметить, что Сирл выдвигает не бихевиористский (не поведенческий) тест на наличие сознания: элементы сознательного разума должны обладать реальным семантическим содержанием.

Возникает соблазн упрекнуть Сирла в том, что его мысленный эксперимент не адекватен, поскольку предлагаемая им система, действующая по типу «кубика-рубика», будет работать до абсурда медленно. Однако Сирл настаивает, что быстродействие в данном случае не играет никакой роли. Думающий медленно все же думает верно. Все необходимое для воспроизведения мышления, согласно концепции классического ИИ, по его мнению, присутствует в «китайской комнате».

Статья Сирла вызвала оживленные отклики специалистов по ИИ, психологов и философов. Однако в общем и целом она была встречена еще более враждебно, чем книга Дрейфуса. В своей статье, которая одновременно публикуется в этом номере журнала, Сирл приводит ряд критических доводов, высказываемых против его концепции. По нашему мнению, многие из них правомерны, в особенности те, авторы которых жадно «кидаются на приманку», утверждая, что, хотя система, состоящая из комнаты и ее содержимого, работает ужасно медленно, она все же понимает китайский язык.

Нам нравятся эти ответы, но не потому, что мы считаем, будто китайская комната понимает китайский язык. Мы согласны с Сирлом, что она его не понимает. Привлекательность этих аргументов в том, что они отражают отказ воспринять важнейшую третью аксиому в рассуждении Сирла: « Синтаксис сам по себе не составляет семантику и его недостаточно для существования семантики». Возможно, эта аксиома и справедлива, но Сирл не может с полным основанием утверждать, что ему это точно известно. Более того, предположить, что она справедлива, - значит напрашиваться на вопрос о том, состоятельна ли программа исследований классического ИИ, поскольку эта программа базируется на очень интересном предположении, что если нам только удастся привести в движение соответствующим образом структурированный процесс, своеобразный внутренний танец синтаксических элементов, правильно связанный со входами и выходами, то мы можем получить те же состояния и проявления разума, которые присущи человеку.

То, что третья аксиома Сирла действительно напрашивается на этот вопрос, становится очевидно, когда мы непосредственно сопоставляем ее с его же первым выводом: «Программы появляются сущностью разума и их наличия не достаточно для наличия разума». Не трудно видеть, что его третья аксиома уже несет в себе 90% почти идентичного ей заключения. Вот почему мысленный эксперимент Сирла специально придуман для того, чтобы подкрепить третью аксиому. В этом вся суть китайской комнаты.

Хотя пример с китайской комнатой делает аксиому 3 привлекательной для непосвященного, мы не думаем, что он доказывает справедливость этой аксиомы, и чтобы продемонстрировать несостоятельность этого примера, мы предлагаем в качестве иллюстрации свой параллельный пример. Часто один удачный пример, опровергающий оспариваемое утверждение, значительно лучше проясняет ситуацию, чем целая книга, полная логического жонглирования.

В истории науки было много примеров скепсиса, подобного тому, который мы видим в рассуждениях Сирла. В XVIII в. ирландский епископ Джордж Беркли считал немыслимым, чтобы волны сжатия в воздухе сами по себе могли быть сущностью звуковых явлений или фактором, достаточным для их существования. Английский поэт и художник Уильям Блейк и немецкий поэт-естествоиспытатель Иоган Гете считали немыслимым, чтобы маленькие частички материи сами по себе могли быть сущностью или фактором, достаточным для объективного существования света. Даже в нынешнем столетии находились люди, которые не могли себе вообразить, чтобы неодушевленная материя сама по себе, независимо от того, насколько сложна ее организация, могла быть органической сущностью или достаточным условием жизни. Совершенно очевидно то, что люди могут или не могут себе представить, зачастую никак не связано с тем, что на самом деле существует или не существует в действительности. Это справедливо, даже когда речь идет о людях с очень высоким уровнем интеллекта.

Чтобы увидеть, каким образом эти исторические уроки можно применить к рассуждениям Сирла, применим искусственно придуманную параллель к его логике и подкрепим эту параллель мысленным экспериментом.

Аксиома 1. Электричество и магнетизм - это физические силы.

Аксиома 2. Существенное свойство света - это свечение.

Аксиома 3. Силы сами по себе появляются сущностью эффекта свечения и не достаточны для его наличия.

Заключение 1. Электричество и магнетизм не являются сущностью света и не достаточны для его наличия.

Предположим, что это рассуждение было опубликовано вскоре после того, как Джеймс К. Максвелл в 1864 г. высказал предположение, что свет и электромагнитные волны идентичны, но до того как в мире были полностью осознаны систематические параллели между свойствами света и свойствами электромагнитных волн. Приведенное выше логическое рассуждение могло показаться убедительным возражением против смелой гипотезы Максвелла, в особенности если бы оно сопровождалось следующим комментарием в поддержку аксиомы 3.

Рассмотрим темную комнату, в которой находится человек, держащий в руках постоянный магнит или заряженный предмет. Если человек начнет перемещать магнит вверх-вниз, то, согласно теории Максвелла об искусственном освещении (ИО), от магнита будет исходить распространяющаяся сфера электромагнитных волн и в комнате станет светлее. Но, как хорошо известно всем, кто пробовал играть с магнитами или заряженными шарами, их силы (а если на то пошло, то и любые другие силы), даже когда эти объекты приходят в движение, не создают никакого свечения. Поэтому представляется немыслимым, чтобы мы могли добиться реального эффекта свечения просто за счет манипулирования силами!

Колебания электромагнитных сил представляют собой свет, хотя магнит, который перемещает человек, не производит никакого свечения. Аналогично манипулирование символами в соответствии с определенными правилами может представлять собой разум, хотя у основанной на применении правил системы, находящейся в «китайской комнате» Дж. Сирла, настоящее понимание как будто отсутствует.

Что же мог ответить Максвелл, если бы ему был брошен этот вызов?

Во-первых, он, возможно, стал бы настаивать на том, что эксперимент со «светящейся комнатой» вводит нас в заблуждение относительно свойств видимого света, потому что частота колебаний магнита крайне мала, меньше, чем нужно, приблизительно в 1015 раз. На это может последовать нетерпеливый ответ, что частота здесь не играет никакой роли, что комната с колеблющимся магнитом уже содержит все необходимое для проявления эффекта свечения в полном соответствии с теорией самого Максвелла.

В свою очередь Максвелл мог бы «проглотить приманку», заявив совершенно обоснованно, что комната уже полна свечения, но природа и сила этого свечения таковы, что человек не способен его видеть. (Из-за низкой частоты, с которой человек двигает магнитом, длина порождаемых электромагнитных волн слишком велика, а интенсивность слишком мала, чтобы глаз человека мог на них среагировать.) Однако, учитывая уровень понимания этих явлений в рассматриваемый период времени (60-е годы прошлого века), такое объяснение, вероятно, вызвало бы смех и издевательские реплики. «Светящаяся комната! Но позвольте, мистер Максвелл, там же совершенно темно!»

Итак, мы видим, что бедному Максвеллу приходится туго. Все, что он может сделать, это настаивать на следующих трех положениях. Во-первых, аксиома 3 в приведенном выше рассуждении не верна. В самом деле, несмотря на то что интуитивно она выглядит достаточно правдоподобной, по ее поводу у нас невольно возникает вопрос. Во-вторых, эксперимент со светящейся комнатой не демонстрирует нам ничего интересного относительно физической природы света. И в-третьих, чтобы на самом деле решить проблему света и возможности искусственного свечения, нам необходима программа исследований, которая позволит установить, действительно ли при соответствующих условиях поведение электромагнитных волн полностью идентично поведению света. Такой же ответ должен дать классический искусственный интеллект на рассуждение Сирла. Хотя китайская комната Сирла и может показаться «в семантическом смысле темной», у него нет достаточных оснований настаивать, что совершаемое по определенным правилам манипулирование символами никогда не сможет породить семантических явлений, в особенности если учесть, что люди еще плохо информированы и ограничены лишь пониманием на уровне здравого смысла тех семантических и мыслительных явлений, которые нуждаются в объяснении. Вместо того чтобы воспользоваться пониманием этих вещей, Сирл в своих рассуждениях свободно пользуется отсутствием у людей такого понимания.

Высказав свои критические замечания по поводу рассуждений Сирла, вернемся к вопросу о том, имеет ли программа классического ИИ реальный шанс решить проблему сознательного разума и создать мыслящую машину. Мы считаем, что перспективы здесь не блестящие, однако наше мнение основано на причинах, в корне отличающихся от тех аргументов, которыми пользуется Сирл. Мы основываемся на конкретных неудачах исследовательской программы классического ИИ и на ряде уроков, преподанных нам биологическим мозгом на примере нового класса вычислительных моделей, в которых воплощены некоторые свойства его структуры. Мы уже упоминали о неудачах классического ИИ при решении тех задач, которые быстро и эффективно решаются мозгом. Ученые постепенно приходят к общему мнению о том, что эти неудачи объясняются свойствами функциональной архитектуры МС-машин, которая просто непригодна для решения стоящих перед ней сложных задач.

Что нам нужно знать, так это каким образом мозг достигает эффекта мышления? Обратное конструирование является широко распространенным приемом в технике. Когда в продажу поступает какое-то новое техническое устройство, конкуренты выясняют, каким образом оно работает, разбирая его на части и пытаясь угадать принцип, на котором оно основано. В случае мозга реализация такого подхода оказывается необычайно трудной, поскольку мозг представляет собой самую сложную вещь на планете. Тем не менее нейрофизиологам удалось раскрыть многие свойства мозга на различных структурных уровнях. Три анатомические особенности принципиально отличают его от архитектуры традиционных электронных компьютеров.

Во-первых , нервная система - это параллельная машина, в том смысле, что сигналы обрабатываются одновременно на миллионах различных путей. Например, сетчатка глаза передает сложный входной сигнал мозгу не порциями по 8,16 или 32 элемента, как настольный компьютер, а в виде сигнала, состоящего почти из миллиона отдельных элементов, прибывающих одновременно к окончанию зрительного нерва (наружному коленчатому телу), после чего они также одновременно, в один прием, обрабатываются мозгом. Во-вторых, элементарное «процессорное устройство» мозга, нейрон, отличается относительной простотой. Кроме того, его ответ на входной сигнал - аналоговый, а не цифровой, в том смысле, что частота выходного сигнала изменяется непрерывным образом в зависимости от входных сигналов.

В-третьих, в мозге, кроме аксонов, ведущих от одной группы нейронов к другой, мы часто находим аксоны, ведущие в обратном направлении. Эти возвращающиеся отростки позволяют мозгу модулировать характер обработки сенсорной информации. Еще важнее то обстоятельство, что благодаря их существованию мозг является подлинно динамической системой, у которой непрерывно поддерживаемое поведение отличается как очень высокой сложностью, так и относительной независимостью от периферийных стимулов. Полезную роль в изучении механизмов работы реальных нейронных сетей и вычислительных свойств параллельных архитектур в значительной мере сыграли упрощенные модели сетей. Рассмотрим, например, трехслойную модель, состоящую из нейроноподобных элементов, имеющих аксоноподобные связи с элементами следующего уровня. Входной стимул достигает порога активации данного входного элемента, который посылает сигнал пропорциональной силы по своему «аксону» к многочисленным «синаптическим» окончаниям элементов скрытого слоя. Общий эффект заключается в том, что та или иная конфигурация активирующих сигналов на множестве входных элементов порождает определенную конфигурацию сигналов на множестве скрытых элементов.

То же самое можно сказать и о выходных элементах. Аналогичным образом конфигурация активирующих сигналов на срезе скрытого слоя приводит к определенной картине активации на срезе выходных элементов. Подводя итог, можно сказать, что рассматриваемая сеть является устройством для преобразования любого большого количества возможных входных векторов (конфигураций активирующих сигналов) в однозначно соответствующий ему выходной вектор. Это устройство предназначено для вычисления специфической функции. То, какую именно функцию оно вычисляет, зависит от глобальной конфигурации синаптической весовой структуры.

Нейронные сети моделируют главное свойство микроструктуры мозга. В этой трехслойной сети входные нейроны (слева внизу) обрабатывают конфигурацию активирующих сигналов {справа внизу) и передают их по взвешенным связям скрытому слою. Элементы скрытого слоя суммируют свои многочисленные входы, образуя новую конфигурацию сигналов. Она передается внешнему слою, выполняющему дальнейшие преобразования. В целом сеть преобразует любой входной набор сигналов в соответствующий выход, в зависимости от расположения и сравнительной силы связей между нейронами.

Существуют разнообразные процедуры для подбора весов, благодаря которым можно сделать сеть, способную вычислить почти любую функцию (т. е. любое преобразование между векторами). Фактически в сети можно реализовать функцию, которую даже нельзя сформулировать, достаточно лишь дать ей набор примеров, показывающих, какие лары входа и выхода мы хотели бы иметь. Этот процесс, называемый «обучением сети», осуществляется путем последовательного подбора весов, присваиваемых связям, который продолжается до тех пор, пока сеть не начнет выполнять желаемые преобразования с входом, чтобы получить нужный выход.

Хотя эта модель сети чрезвычайно упрощает структуру мозга, она все же иллюстрирует несколько важных аспектов. Во-первых, параллельная архитектура обеспечивает колоссальное преимущество в быстродействии по сравнению с традиционным компьютером, поскольку многочисленные синапсы на каждом уровне выполняют множество мелких вычислительных операций одновременно, вместо того чтобы действовать в очень трудоемком последовательном режиме. Это преимущество становится все более значительным, по мере того как возрастает количество нейронов на каждом уровне. Поразительно, но скорость обработки информации, совершенно не зависит ни от числа элементов, участвующих в процессе на каждом уровне, ни от сложности функции, которую они вычисляют. Каждый уровень может иметь четыре элемента или сотню миллионов; конфигурация синаптических весов может вычислять простые одноразрядные суммы или решать дифференциальные уравнения второго порядка. Это не имеет значения. Время вычислений будет абсолютно одним и тем же.

Во-вторых, параллельный характер системы делает ее нечувствительной к мелким ошибкам и придает ей функциональную устойчивость; потеря нескольких связей, даже заметного их количества, оказывает пренебрежимо малое влияние на общий ход преобразования, выполняемого оставшейся частью сети.

В-третьих, параллельная система запоминает большое количество информации в распределенном виде, при этом обеспечивается доступ к любому фрагменту этой информации за время, измеряющееся несколькими миллисекундами. Информация хранится в виде определенных конфигураций весов отдельных синаптических связей, сформировавшихся в процессе предшествовавшего обучения. Нужная информация «высвобождается» по мере того, как входной вектор проходит через (и преобразуется) эту конфигурацию связей.

Параллельная обработка данных не является идеальным средством для всех видов вычислений. При решении задач с небольшим входным вектором, но требующих многих миллионов быстро повторяющихся рекурсивных вычислений, мозг оказывается совершенно беспомощным, в то время как классические МС-машины демонстрируют свои самые лучшие возможности. Это очень большой и важный класс вычислений, так что классические машины будут всегда нужны и даже необходимы. Однако существует не менее широкий класс вычислений, для которых архитектура мозга представляет собой наилучшее техническое решение. Это главным образом те вычисления, с которыми обычно сталкиваются живые организмы: распознавание контуров хищника в «шумной» среде; мгновенное вспоминание правильной реакции на его пристальный взгляд, способ бегства при его приближении или защиты при его нападении; проведение различий между съедобными и несъедобными вещами, между половыми партнерами и другими животными; выбор поведения в сложной и постоянно изменяющейся физической или социальной среде; и т. д.

Наконец, очень важно заметить, что описанная параллельная система не манипулирует символами в соответствии со структурными правилами. Скорее манипулирование символами является лишь одним из многих других «интеллектуальных» навыков, которым сеть может научиться или не научиться. Управляемое правилами манипулирование символами не является основным способом функционирования сети. Рассуждение Сирла направлено против управляемых правилами МС-машин; системы преобразования векторов того типа, который мы описали, таким образом, выпадают из сферы применимости его аргумента с китайской комнатой, даже если бы он был состоятелен, в чем мы имеем другие, независимые причины сомневаться.

Сирлу известно о параллельных процессорах, но, по его мнению, они будут также лишены реального семантического содержания. Чтобы проиллюстрировать их неизбежную неполноценность в этом отношении, он описывает второй мысленный эксперимент, на сей раз с китайским спортивным залом, который наполнен людьми, организованным в параллельную сеть. Дальнейший ход его рассуждений аналогичен рассуждениям в случае с китайской комнатой.

На наш взгляд, этот второй пример не так удачен и убедителен, как первый. Прежде всего то обстоятельство, что ни один элемент в системе не понимает китайского языка, не играет никакой роли, потому что то же самое справедливо и по отношению к нервной системе человека: ни один нейрон моего мозга не понимает английского языка, хотя мозг как целое понимает. Далее Сирл не упоминает о том, что его модель (по одному человеку на каждый нейрон плюс по быстроногому мальчишке на каждую синаптическую связь) потребовала бы по крайней мере 1014 человек, так как человеческий мозг содержит 1011 нейронов, каждый из которых имеет в среднем 103 связей. Таким образом, его система потребует населения 10 000 миров, таких как наша Земля. Очевидно, что спортивный зал далеко не в состоянии вместить более или менее адекватную модель.

С другой стороны, если такую систему все же удалось бы собрать, в соответствующих космических масштабах, со всеми точно смоделированными связями, у нас получился бы огромный, медленный, странной конструкции, но все же функционирующий мозг. В этом случае, конечно, естественно ожидать, что при правильном входе он будет мыслить, а не наоборот, что он на это не способен. Нельзя гарантировать, что работа такой системы будет представлять собой настоящее мышление, поскольку теория векторной обработки может неадекватно отражать работу мозга. Но точно так же у нас нет никакой априорной гарантии, что она не будет мыслить. Сирл еще раз ошибочно отождествляет сегодняшние пределы своего собственного (или читательского) воображения с пределами объективной реальности.

Мозг

Мозг является своеобразным компьютером, хотя большинство его свойств пока остается непознанным. Охарактеризовать мозг как компьютер далеко не просто, и такие попытки не следует считать излишней вольностью. Мозг дейтствительно вычисляет функции, но не такие, как в прикладных задачах, решаемых классическим искусственным интеллектом. Когда мы говорим о машине как о компьютере, мы не имеем в виду последовательный цифровой компьютер, который нужно запрограммировать и которому свойственно четкое разделение на программную часть и аппаратную; мы не имеем также в виду, что этот компьютер манипулирует символами или следует определенным правилам. Мозг - это компьютер принципиально другого вида.

Каким образом мозг улавливает смысловое содержание информации, пока не известно, однако ясно, что проблема эта выходит далеко за рамки лингвистики и не ограничивается человеком как видом. Маленькая кучка свежей земли означает, как для человека, так и для кайота, что где-то поблизости находится суслик; эхо с определенными спектральными характеристиками означает для летучей мыши присутствие мотылька. Чтобы разработать теорию формирования смыслового содержания, мы должны больше знать о том, как нейроны кодируют и преобразуют сенсорные сигналы, о нейронной основе памяти, об обучении и эмоциях и о связи между этими факторами и моторной системой. Основанная на нейрофизиологии теория понимания смысла может потребовать даже наших интуитивных представлений, которые сейчас кажутся нам такими незыблемыми и которыми так свободно пользуется Сирл в своих рассуждениях. Подобные пересмотры - не редкость в истории науки.

Способна ли наука создать искусственный интеллект, воспользовавшись тем, что известно о нервной системе? Мы не видим на этом пути принципиальных препятствий. Сирл будто бы соглашается, но с оговоркой: «Любая другая система, способная порождать разум, должна обладать каузальными свойствами (по крайне мере), эквивалентными соответствующим свойствам мозга». В завершение статьи мы и рассмотрим это утверждение. Полагаем, что Сирл не утверждает, будто успешная система искусственного интеллекта должна непременно обладать всеми каузальными свойствами мозга, такими как способность чувствовать запах гниющего, способность быть носителем вирусов, способность окрашиваться в желтый цвет под действием пероксидазы хрена обыкновенного и т. д. Требовать полного соответствия будет все равно, что требовать от искусственного летательного аппарата способности нести яйца.

Вероятно, он имел в виду лишь требование, чтобы искусственный разум обладал всеми каузальными свойствами, относящимися, как он выразился, к сознательному разуму. Однако какими именно? И вот мы опять возвращаемся к спору о том, что относится к сознательному разуму, а что не относится. Здесь как раз самое место поспорить, однако истину в данном случае следует выяснять эмпирическим путем - попробовать и посмотреть, что получится. Поскольку нам так мало известно о том, в чем именно состоит процесс мышления и семантика, то всякая уверенность по поводу того, какие свойства здесь существенны, была бы преждевременной. Сирл несколько раз намекает, что каждый уровень, включая биохимический, должен быть представлен в любой машине, претендующей на искусственный интеллект. Очевидно, это слишком сильное требование. Искусственный мозг может и не пользуясь биохимическими механизмами, достичь того же эффекта.

Эта возможность была продемонстрирована в исследованиях К.Мида в Калифорнийском технологическом институте. Мид и его коллеги воспользовались аналоговыми микроэлектронными устройствами для создания искусственной сетчатки и искусственной улитки уха. (У животных сетчатка и улитка не являются просто преобразователями: в обеих системах происходит сложная параллельная обработка данных.) Эти устройства уже не простые модели в миникомпьютере, над которым посмеивается Сирл; они представляют собой реальные элементы обработки информации, реагирующие в реальное время на реальные сигналы: свет - в случае сетчатки и звук - в случае улитки уха. Схемы устройств основаны на известных анатомических и физиологических свойствах сетчатки кошки и ушной улитки сипухи, и их выход чрезвычайно близок к известным выходам органов, которые они моделируют.

В этих микросхемах не используются никакие нейромедиаторы, следовательно, нейромедиаторы, судя по всему, не являются необходимыми для достижения желаемых результатов. Конечно, мы не можем сказать, что искусственная сетчатка видит что-то, поскольку ее выход не поступает на искусственный таламус или кору мозга и т. д. Возможно ли по программе Мида построить целый искусственный мозг, пока не известно, однако в настоящее время у нас нет свидетельств, что отсутствие в системе биохимических механизмов делает этот подход нереалистичным.

Нервная система охватывает ыного масштабов организации, от молекул нейромедиаторов (внизу) до всего головного и спинного мозга. На промежуточных у ровнях находятся отдельные нейроны и нейронные цепи, подобные тем, что реализуют избирательность восприятия зрительных стимулов (в центре), и системы, состоящие из многих цепей, подобных тем, что обслуживают функции речи (справа вверху). Только путем исследований можно установить, насколько близко искусственная система способна воспроизводить биологические системы, обладающие разумом.

Так же как и Сирл, мы отвергаем тест Тьюринга как достаточный критерий наличия сознательного разума. На одном уровне основания для этого у нас сходные: мы согласны, что очень важно, каким образом реализуется функция, определенная по входу-выходу; важно, чтобы в машине происходили правильные процессы. На другом уровне мы руководствуемся совершенно иными соображениями. Свою позицию относительно присутствия или отсутствия семантического содержания Сирл основывает на интуитивных представлениях здравого смысла. Наша точка зрения основана на конкретных неудачах классических МС-машин и конкретных достоинствах машин, архитектура которых ближе к устройству мозга. Сопоставление этих различных типов машин показывает, что одни вычислительные стратегии имеют огромное и решающее преимущество над другими в том, что касается типичных задач умственной деятельности. Эти преимущества, установленные эмпирически, не вызывают никаких сомнений. Очевидно, мозг систематически пользуется этими вычислительными преимуществами. Однако он совершенно не обязательно является единственной физической системой, способной ими воспользоваться. Идея создания искусственного интеллекта в небиологической, но существенно параллельной машине остается очень заманчивой и в достаточной мере перспективной.

Инноваторы. Как несколько гениев, хакеров и гиков совершили цифровую революцию Айзексон Уолтер

Может ли машина мыслить?

Может ли машина мыслить?

Когда Алан Тьюринг раздумывал о конструировании компьютера с сохраняемой программой, он обратил внимание на утверждение, сделанное Адой Лавлейс столетием ранее, в ее финальном «Примечании» к описанию аналитической машины Бэббиджа. Она утверждала, что машины не смогут думать. Тьюринг задался вопросом: если машина может изменить свою собственную программу на основе обрабатываемой ею информации, не форма ли это обучения? Не может ли это привести к созданию искусственного интеллекта?

Вопросы, связанные с искусственным интеллектом, возникали уже в древности. Тогда же возникали и вопросы, связанные с человеческим сознанием. Как и в большинстве обсуждений такого рода, важную роль в изложении их в современных терминах сыграл Декарт. В своем трактате 1637 года «Рассуждение о методе» (который содержит знаменитое утверждение «Я мыслю, следовательно, я существую») Декарт писал:

Если бы сделать машины, которые имели бы сходство с нашим телом и подражали бы нашим действиям, насколько это мыслимо, то у нас все же было бы два верных средства узнать, что это не настоящие люди. Во-первых, такая машина никогда не могла бы пользоваться словами или другими знаками, сочетая их так, как это делаем мы, чтобы сообщать другим свои мысли. Во-вторых, хотя такая машина многое могла бы сделать так же хорошо и, возможно, лучше, чем мы, в другом она непременно оказалась бы несостоятельной, и обнаружилось бы, что она действует несознательно.

Тьюринга уже давно интересовало, как компьютер мог бы повторить работу человеческого мозга, и его любопытство было подогрето еще больше работой на машинах, которые расшифровывали закодированные сообщения. В начале 1943 года, когда в Блетчли-Парке уже был готов Colossus, Тьюринг пересек Атлантику и направился в Bell Lab, расположенный в Нижнем Манхэттене, для консультаций с группой, работающей над шифрованием речи с помощью электронного устройства (скремблера) - технологией, которая могла бы зашифровывать и расшифровывать телефонные разговоры.

Там он встретился с колоритным гением - Клодом Шенноном, который, будучи выпускником Массачусетского технологического института, в 1937 году написал дипломную работу, ставшую классической. В ней он показал, как булева алгебра, которая представляет логические предложения в виде уравнений, может быть отображена с помощью электронных схем. Шеннон и Тьюринг стали встречаться за чаем и вести долгие разговоры. Оба интересовались наукой о мозге и понимали, что в их работах 1937 года было нечто общее и фундаментальное: они показали, как машине, которая оперирует простыми двоичными командами, можно ставить не только математические, но и всевозможные логические задачи. А поскольку логика была основой человеческого мышления, то машина могла бы в теории воспроизвести человеческий интеллект.

«Шеннон хочет кормить [машину] не только данными, но и произведениями культуры! - однажды сказал Тьюринг коллегам по Bell Lab на обеде. - Он хочет сыграть ей что-нибудь музыкальное». На другом обеде в столовой Bell Labs Тьюринг вещал своим высоким голосом, слышным всем присутствовавшим в помещении: «Нет, я не собираюсь конструировать мощный мозг. Я пытаюсь сконструировать всего лишь посредственный мозг - такой, например, как у президента Американской телефонной и телеграфной компании» .

Когда в апреле 1943 года Тьюринг вернулся в Блетчли-Парк, он подружился с коллегой Дональдом Мичи, и они провели много вечеров, играя в шахматы в соседнем пабе. Они часто обсуждали возможность создания шахматного компьютера, и Тьюринг решил подойти к проблеме по-новому. А именно: не использовать напрямую всю мощность машины для расчета каждого возможного хода, а постараться дать машине возможность самой учиться игре в шахматы, постоянно практикуясь. Другими словами, дать ей возможность пробовать применить новые гамбиты и совершенствовать свою стратегию после каждого нового выигрыша или проигрыша. Такой подход в случае успеха являлся бы существенным прорывом, который порадовал бы Аду Лавлейс. Было бы доказано, что машины способны на большее, чем просто следовать инструкциям, данным им людьми, - они могли бы учиться на опыте и улучшать свои собственные команды.

«Считается, что вычислительные машины могут выполнять только такие задачи, на которые им даны команды, - объяснил он в докладе, сделанном на Лондонском математическом обществе в феврале 1947 года. - Но необходимо ли, чтобы они всегда использовались таким образом?» Затем он обсудил возможности новых компьютеров с сохраняемой программой, которые могут сами изменять таблицы команд, и продолжил: «Они могли бы стать похожими на учеников, которые многому научились у своего учителя, но добавили гораздо больше своего. Я думаю, что, когда это произойдет, придется признать, что машина демонстрирует наличие интеллекта» .

Когда он закончил доклад, слушатели на мгновение замолкли, ошеломленные заявлением Тьюринга. Его коллеги из Национальной физической лаборатории вообще не понимали одержимости Тьюринга созданием думающих машин. Директор Национальной физической лаборатории сэр Чарльз Дарвин (внук биолога, создателя теории эволюции) в 1947 году написал своему начальству, что Тьюринг «хочет распространить свою работу над машиной еще дальше, в сторону биологии» и ответить на вопрос: «Можно ли сделать такую машину, которая может учиться на своем опыте?»

Смелая мысль Тьюринга о том, что машины смогут когда-нибудь думать, как люди, в то время вызвала яростные возражения, да и до сих пор вызывает. Появились как вполне ожидаемые религиозные возражения, так и нерелигиозные, но весьма эмоциональные, как по содержанию, так и по тону. Нейрохирург сэр Джеффри Джефферсон в речи, произнесенной по случаю награждения престижной медалью Листера в 1949 году, заявил: «Согласиться с тем, что машина так же разумна [как человек], мы сможем не раньше, чем она сможет написать сонет или сочинить концерт под влиянием своих мыслей и эмоций, а не из-за случайного выбора символов» . Ответ Тьюринга репортеру из лондонского Timss, казалось, был несколько легкомысленным, но тонким: «Сравнение, возможно, не совсем справедливо, поскольку сонет, написанный машиной, лучше оценивать другой машине» .

Таким образом, был заложен фундамент для второй основополагающей работы Тьюринга, «Вычислительные машины и разум», опубликованной в журнале Mind в октябре 1950 года . В ней он описал тест, ставший известным впоследствии как тест Тьюринга. Он начал с четкого заявления: «Я предлагаю рассмотреть вопрос: „Могут ли машины мыслить?“» С азартом, скорее присущим школьнику, он придумал игру - и в нее все еще играют и до сих пор обсуждают. Он предложил вложить в этот вопрос реальный смысл и сам дал простое функциональное определение искусственного интеллекта: если ответ машины на вопрос ничем не отличается от ответа, который дает человек, то у нас не будет никакого разумного основания считать, что машина не «думает».

Тест Тьюринга, который он назвал «Игра в имитацию», прост: экзаменатор направляет письменные вопросы человеку и машине, находящимся в другой комнате, и пытается определить, какой из ответов принадлежит человеку. Тьюринг предложил пример вопросника:

Вопрос: Пожалуйста, напишите мне сонет о мосте Форт.

Ответ: Не просите меня об этом. Я никогда не умел писать стихи.

В: Сложите 34 957 и 70 764.

О (пауза примерно 30 секунд, а затем дается ответ): 105 621.

В: Вы играете в шахматы?

В: У меня есть только K (король) на K 1 , и никаких других фигур.

У вас есть только K на K6 и R (ладья) на R1. Ваш ход. Куда вы ходите?

О (после паузы 15 секунд): R на R8, мат.

В этом примере Тьюринга диалога содержится несколько важных вещей. Тщательное изучение показывает, что отвечающий после тридцатисекундного раздумья сделал небольшую ошибку в сложении (правильный ответ 105 721). Свидетельствует ли это о том, что он был человеком? Возможно. Но опять же, может быть, эта хитрая машина притворилась человеком. Тьюринг также ответил на соображение Джефферсона о том, что машина не может написать сонет: вполне возможно, что ответ, приведенный выше, был дан человеком, признавшимся, что он не умеет писать стихи. Далее в статье Тьюринг представил еще один воображаемый опрос, демонстрирующий сложность использования умения сочинить сонет в качестве критерия принадлежности к человеческому роду:

В: Считаете ли вы, что первую строку сонета: «Должен ли я сравнить тебя с летним днем» не испортит, а может, даже улучшит замена на «весенний день»?

О: Тогда нарушится размер.

В: Как насчет замены на «зимний день»? Тогда с размером все в порядке.

О: Да, но никто не хочет быть сравненным с зимним днем.

В: Вы хотите сказать, что мистер Пиквик напоминает вам о Рождестве?

О: В некотором смысле.

В: Тем не менее праздник Рождества приходится на зимний день, и я не думаю, что мистер Пиквик возражал бы против этого сравнения.

О: Я не думаю, что вы говорите серьезно. Под зимним днем обычно понимают типичный зимний день, а не особенный, вроде Рождества.

Смысл примера Тьюринга в том, что может оказаться невозможным сказать, отвечающий был человеком или машиной, делающей вид, что она человек.

Тьюринг высказал свое предположение о том, может ли компьютер выиграть в этой имитационной игре: «Я считаю, в течение примерно пятидесяти лет можно будет научиться так программировать компьютеры… что они смогут играть в имитацию настолько хорошо, что шанс среднего экзаменатора правильно идентифицировать отвечающего после пятиминутного опроса будет не более 70 %».

В своей работе Тьюринг попытался опровергнуть множество возможных возражений на его определение разума. Он отмахнулся от теологического довода о том, что Бог даровал душу и разум только людям, возразив, что это «подразумевает серьезное ограничение на всемогущество Всевышнего». Он спросил, есть ли у Бога «свобода даровать душу слону, если Он сочтет это нужным». Предположим, что так. Из той же логики (которая, учитывая, что Тьюринг был неверующим, звучит язвительно) следует, что Бог, безусловно, может даровать душу и машине, если Он того пожелает.

Самое интересное возражение, на которое Тьюринг отвечает, - особенно для нашего повествования - это возражение Ады Лавлейс, написавшей в 1843 году: «Аналитическая машина не претендует на то, чтобы создавать что-то действительно новое. Машина может выполнить все то, что мы умеем ей предписать. Она может следовать анализу, но не может предугадать какие-либо аналитические зависимости или истины». Другими словами, в отличие от человеческого разума, механическое устройство не может иметь свободу воли или выдвигать свои собственные инициативы. Оно может только выполнять то, что запрограммировано. В своей статье 1950 года Тьюринг посвятил раздел этому высказыванию и назвал его «Возражение леди Лавлейс».

Гениальным ответом на это возражение был аргумент, что на самом деле машина может учиться, тем самым превращаясь в мыслящее исполнительное устройство, которое способно производить новые мысли. «Вместо того чтобы писать программу для имитации мышления взрослого человека, почему бы не попробовать написать программу, которая имитирует мышление ребенка? - спрашивает он. - Если запустить соответствующий процесс обучения, можно было бы в конце концов получить интеллект взрослого человека». Он признал, что процесс обучения компьютера будет отличаться от процесса обучения ребенка: «К примеру, его невозможно снабдить ногами, так что ему нельзя предложить сходить собрать уголь в ящик. Вероятно, у него не может быть глаз… Нельзя послать это существо в школу - для других детей оно будет посмешищем». Поэтому бэби-машина должна обучаться по-иному. Тьюринг предложил систему наказаний и наград, которая будет поощрять машину повторять некоторые действия и избегать других. В конце концов такая машина могла бы развивать свои собственные представления и объяснения того или иного явления.

Но даже если машина сможет имитировать разум, возражали критики Тьюринга, он будет не совсем разумом. Когда человек проходит тест Тьюринга, он использует слова, которые связаны с реальным миром, эмоциями, переживаниями, ощущениями и восприятиями. А машина не делает этого. Без таких связей язык становится просто игрой, оторванной от смысла.

Это возражение привело к продержавшемуся дольше всех опровержению теста Тьюринга, которое сформулировал философ Джон Сёрл в своем эссе 1980 года. Он предложил мысленный эксперимент, называемый «Китайской комнатой», в которой говорящему по-английски человеку, не знающему китайского языка, предоставляется полный свод правил, объясняющих, как составлять любые комбинации китайских иероглифов. Ему передается набор иероглифов, а он из них составляет сочетания, пользуясь правилами, но не понимая значения фраз, составленных им. Если инструкции достаточно хороши, человек мог бы убедить экзаменатора, что он действительно говорит по-китайски. Тем не менее он не понял бы ни одного составленного им самим текста, в нем не содержалось бы никакого смысла. В терминологии Ады Лавлейс он не претендовал бы на создание чего-то нового, а просто выполнял действия, которые ему было приказано выполнять. Аналогично и машина в имитационной игре Тьюринга, независимо от того, насколько хорошо она может имитировать человеческий разум, не будет понимать или сознавать ничего из того, что говорится. В том, чтобы сказать, что машина «думает», не больше смысла, чем в том, чтобы сказать, что человек, следующий многочисленным инструкциям, понимает китайский язык .

Одним из ответов на возражения Сёрла стало утверждение, что, даже если человек не понимает китайский язык, вся система как целое, собранная в Китайской комнате, то есть мужчина (блок обработки данных), инструкция по обращению с иероглифами (программа) и файлы с иероглифами (данные), возможно, действительно понимает китайский язык. Здесь нет окончательного ответа. И в самом деле, тест Тьюринга и возражения на него остаются по сей день наиболее обсуждаемой темой в когнитивных науках.

В течение нескольких лет после того, как Тьюринг написал «Вычислительные машины и разум», он, казалось, наслаждался участием в перепалке, которую сам спровоцировал. С едким юмором он парировал притязания тех, кто болтал о сонетах и возвышенном сознании. В 1951 году он подтрунивал над ними: «Однажды дамы возьмут свои компьютеры с собой на прогулку в парк и будут говорить друг другу: „Мой компьютер рассказывал сегодня утром такие забавные вещи!“» Как заметил позже его наставник Макс Ньюман, «его юмористические, но блестяще точные аналогии, пользуясь которыми он излагал свои взгляды, делали его восхитительным собеседником» .

Была одна тема, которая не раз поднималась в ходе обсуждений с Тьюрингом и которая вскоре станет печально актуальной. Она касалась роли сексуальности и эмоциональных желаний, неведомых машинам, в работе человеческого мозга. Примером могут служить публичные дебаты, состоявшиеся в январе 1952 года на телевизионном канале BBC между Тьюрингом и нейрохирургом сэром Джеффри Джефферсоном. Модераторами на этом диспуте были математик Макс Ньюман и философ науки Ричард Брейтуэйт. Брейтуэйт, утверждавший, что для того, чтобы создать настоящую думающую машину, «необходимо оснастить машину чем-то подобным набору физических потребностей», заявил: «Интересы человека определяются по большому счету его страстями, желаниями, мотивацией и инстинктами». Ньюман вмешался, сказав, что машины «имеют довольно ограниченные потребности и они не могут краснеть, когда смущаются». Джефферсон пошел еще дальше, неоднократно используя в качестве примера термин «сексуальные потребности» и ссылаясь на человеческие «эмоции и инстинкты, например имеющие отношение к сексу». «Человек - жертва сексуальных желаний, - сказал он, - и может выставить себя дураком». Он говорил так много о том, как сексуальные потребности влияют на человеческое мышление, что редакторы BBC вырезали некоторые из его высказываний из передачи, в том числе утверждение, что он не поверит, что компьютер может думать, пока не увидит, что он потрогает ногу женщины-компьютера .

Тьюринг, который все еще скрывал свою гомосексуальность, замолк во время этой части обсуждения. В течение нескольких недель, предшествовавших записи передачи 10 января 1952 года, он совершил ряд поступков, которые были настолько сугубо человеческими, что машина сочла бы их непостижимыми. Он только что закончил научную работу, а потом написал рассказ о том, как собирался отпраздновать это событие: «Прошло довольно много времени с тех пор, как у него „был“ кто-то, фактически с лета прошлого года, когда он встретил того солдата в Париже. Теперь, когда его работа закончена, он может с полным основанием считать, что заработал право на отношения с геем, и он знал, где найти подходящего кандидата» .

В Манчестере на Оксфорд-стрит Тьюринг нашел девятнадцатилетнего бомжа по имени Арнольд Мюррей и завязал с ним отношения. Когда он вернулся с BBC после записи шоу, он пригласил Мюррея переселиться к нему. Однажды ночью Тьюринг рассказал молодому Мюррею о своей идее сыграть в шахматы против подлого компьютера, которого он смог бы победить, заставляя его проявлять то гнев, то радость, то самодовольство. Отношения в последующие дни стали более сложными, и однажды вечером Тьюринг вернулся домой и обнаружил, что его обокрали. Преступник оказался другом Мюррея. Тьюринг сообщил о случившемся в полицию, ему пришлось в конечном итоге рассказать полицейским о своих сексуальных отношениях с Мюрреем, и Тьюринг был арестован за «непристойное поведение» .

На судебном процессе в марте 1952 года Тьюринг признал себя виновным, хотя ясно дал понять, что не чувствует никакого раскаяния. Макс Ньюман был вызван в суд в качестве свидетеля, дающего отзыв о характере подсудимого. Осужденный и лишенный допуска Тьюринг должен был сделать выбор: тюрьма или освобождение при условии прохождения гормональной терапии с помощью инъекций синтетического эстрогена, убивающего сексуальные желания и уподобляющего человека химически контролируемой машине. Он выбрал последнее и проходил курс в течение года.

Сначала казалось, что Тьюринг все это выносит спокойно, но 7 июня 1954 года он покончил жизнь самоубийством, откусив от яблока, пропитанного цианидом. Его друзья отмечали, что ему всегда нравилась сцена из «Белоснежки», в котором злая фея опускает яблоко в ядовитое варево. Он был найден в своей постели с пеной у рта, цианидом в теле и недоеденным яблоком, лежащим рядом с ним.

Способны ли так поступать машины?

Джон Бардин (1908–1991), Уильям Шокли (1910–1989), Уолтер Браттейн (1902–1987) в Bell Labs, 1948 г.

Первый транзистор, изготовленный в Bell Labs

Коллеги, в том числе Гордон Мур (сидит слева) и Роберт Нойс (стоит в центре с бокалом вина), произносят тосты в честь Уильяма Шокли (во главе стола) в день награждения его Нобелевской премией, 1956 г.

Данный текст является ознакомительным фрагментом. Из книги Раздумья ездового пса автора Ершов Василий Васильевич

Машина То, на чем я летаю по воздуху, называется «средний магистральный пассажирский самолёт Ту-154». Но как в английском языке слово «корабль» - женского рода, так и мы, лётчики, говорим о своём родном самолёте: «она», «машина». Кормилица наша. Одно это подразумевает, что мы,

Из книги Мемуарная проза автора Цветаева Марина

ГОНЧАРОВА И МАШИНА В нашем живописании доселе все спевалось. Гончарова природы, народа, народов, со всей древностью деревенской крови в недавности дворянских жил, Гончарова - деревня, Гончарова - древность. Гончарова-дерево, древняя, деревенская, деревянная, древесная,

Из книги Московские тюрьмы автора Мясников Алексей

«Так нельзя мыслить» Вдоль здания приемной городской прокуратуры задумчиво ходит бородатый человек. Длинные пряди спадают с лысеющей головы, сливаются с проседью бороды, большой, черно-бурой. Цепкие глаза внимательно ощупывают старинный орнамент фасада. Так занят этим,

Из книги Статьи из газеты «Известия» автора Быков Дмитрий Львович

Из книги Том 4. Книга 1. Воспоминания о современниках автора Цветаева Марина

Гончарова и машина В нашем живописании доселе все спевалось. Гончарова природы, народа, народов, со всей древностью деревенской крови в недавности дворянских жил, Гончарова - деревня, Гончарова - древность. Гончарова - дерево, древняя, деревенская, деревянная,

Из книги Путешествие рок-дилетанта автора Житинский Александр Николаевич

МАШИНА ВРЕМЕНИ Московская группа МАШИНА ВРЕМЕНИ возникла на рубеже 1968–1969 гг., в то время ее участники еще учились в школе. В одном из первых устойчивых составов играли А. Макаревич (гитара, вокал), А. Кутиков (бас), С. Кавагоэ (орган), Ю. Борзов (ударные). Поначалу в репертуар

Из книги Бизнес есть бизнес: 60 правдивых историй о том, как простые люди начали свое дело и преуспели автора Гансвинд Игорь Игоревич

Из книги Исповедь четырех автора Погребижская Елена

Глава третья Мыслить и страдать или кого потеряла отечественная философия Вот лично мне нравилось думать о себе, что я человек несентиментальный. И если у меня и были какие-то «безуханные» засохшие цветы между пожелтевшими страницами, то все это усилием воли давным-давно

Из книги Меланхолия гения. Ларс фон Триер. Жизнь, фильмы, фобии автора Торсен Нильс

Машина мечты Он поворачивает ключ в замке, и гольф-кар заводится с легким электрическим жужжанием. Потом он разворачивает машину, сворачивает с дороги и уверенной рукой рывками везет нас между красных и желтых зданий.– Вот они повеселились небось, когда разрабатывали

Из книги Размышления команданте автора Кастро Фидель

Машина убийств Воскресенье – хороший день для чтения научной фантастики.Было объявлено, что ЦРУ намерено рассекретить сотни страниц материалов о своих незаконных действиях, в том числе планы по устранению глав иностранных правительств. Внезапно публикация этих

Из книги Воздушный путь автора Сикорский Игорь Иванович

Что может дать аэроплан с одним двигателем и чего он не может дать После того как первые аэропланы поднялись в Европе на воздух, дело летания стало развиваться очень быстро и успешно. Железным дорогам понадобилось несколько десятилетий, чтобы войти в употребление в

автора Айзексон Уолтер

Может ли машина мыслить? Когда Алан Тьюринг раздумывал о конструировании компьютера с сохраняемой программой, он обратил внимание на утверждение, сделанное Адой Лавлейс столетием ранее, в ее финальном “Примечании” к описанию аналитической машины Бэббиджа. Она

Из книги Инноваторы. Как несколько гениев, хакеров и гиков совершили цифровую революцию автора Айзексон Уолтер

“Как мы можем мыслить” Идея создать персональный компьютер, который каждый мог бы иметь у себя дома, пришла в голову Вэнивару Бушу еще в 1945 году. Он собрал большой аналоговый компьютер в Массачусетском технологическом институте (МТИ) и наладил сотрудничество между

Из книги Ария Маргариты автора Пушкина Маргарита Анатольевна

«Как мы можем мыслить» Идея создать персональный компьютер, который каждый мог бы иметь у себя дома, пришла в голову Вэнивару Бушу еще в 1945 году. Он собрал большой аналоговый компьютер в Массачусетском технологическом институте (МТИ) и наладил сотрудничество между

Из книги Лжетрактат о манипуляции. Фрагменты книги автора Бландиана Ана

МАШИНА СМЕРТИ (музыка С.Терентьева)Думаю, эту песню в том виде, как она была записана для альбома «Химера», не услышит никто. В крайнем случае она появится на каком-нибудь сборнике. Скорее всего, Терентий творчески переработает ее, замедлит, пропустит через мясорубку

Из книги автора

Машина у ворот Не припомню с точностью момент, когда она появилась напротив наших ворот, - в те времена, когда в Бухаресте было гораздо меньше автомобилей, чем сейчас, и на улице мест для парковки в изобилии, - эта белая шкода, а в ней женщина лет тридцати-сорока, крепкая

Похожие публикации