Вы находитесь на странице: 1из 4

Кита́йская ко́мната (англ.

 Chinese room) — мысленный эксперимент в


области философии сознания и философии искусственного интеллекта, впервые
опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении
утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её
программирования определённым образом, способна обладать сознанием в том же смысле, в
котором им обладает человек. Иными словами, целью является опровержение гипотезы так
называемого «сильного» искусственного интеллекта и критика теста Тьюринга. (Три десятилетия
до выхода статьи Серла, Алан Тюринг сформулировал свой известный критерий для разумной
машины, известный также как Тест Тюринга: компьютер, способный поддерживать диалог
(текстовый) и сойти, таким образом, за человека, должен считаться разумным. К концу 70-х годов
компьютеры и программы ИИ достигли того уровня, когда некоторые из их разработчиков стали
заявлять, что их машины способны понимать английский язык. Статья Серла, содержащая
описанный ниже эксперимент, стала во многом реакцией на подобные утверждения и общее
мнение, что компьютер в принципе способен понимать человеческую речь.)
Этот философский аргумент до сих пор является одним из самых обсуждаемых в
области когнитивистики. Некоторые исследователи даже определяют когнитивистику как
«исследовательский проект по опровержению аргумента Сёрла». Только с 2010 по 2014 год было
выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла
Описание эксперимента
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не
знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции
по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и
поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях
отсутствует информация о значении этих иероглифов и Сёрл просто следует этим
инструкциям подобно компьютеру.
Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с
вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким
образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы
ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет
алгоритм так же, как его исполнил бы компьютер[2].
В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос
(например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ
(например, «Синий»), как при разговоре с человеком, который свободно владеет китайской
письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться
ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает
ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может
быть уверен, что в комнате находится человек, который знает и понимает иероглифы[2].

Критика
Мысленный эксперимент вызвал интенсивную критику в академических кругах. Были выдвинуты
различные доводы против аргумента Сёрла.
Аргумент о системе
Некоторые критики считают, что тест Тьюринга выдержал не человек в комнате, а система,
состоящая из комнаты, книги правил и человека. Сёрл, по их мнению, отвлекает внимание от этого
факта, скрывая логические ошибки и концентрируясь на одном из компонентов системы,
выполняющем в данном случае чисто механическую работу[4]. Система из книги правил, человека
и комнаты, по их мнению, является разумной и понимает китайский язык. В качестве
контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для
системы. По мнению философа, система, которая теперь будет состоять только из человека, всё
равно не сможет понять китайский язык[1][5].
Робот
Часть критиков согласна с тем, что следование простым инструкциям на человеческом языке не
создаёт понимания, однако это не значит, что такое понимание невозможно создать в принципе.
Так, например, эти критики полагают, что эффект понимания достижим, если создать робота с
самообучающейся программой, а также оснастить его сенсорами для восприятия мира. Такой
робот, по их мнению, может взаимодействовать с миром, познавать его и быть способен обучиться
подобно ребёнку, а следовательно начать понимать так же, как человек. Сёрл возражал против
того, что в случае робота применим тот же аргумент. Сёрл предлагал поместить человека внутрь
робота, и человек, в зависимости от увиденных через сенсоры иероглифов, выполнял бы движение
телом робота, и в то же время он бы не имел никакого понимания происходящего, а лишь
выполнял синтаксические манипуляции над символами[1][5].
Искусственный мозг
Поскольку компьютерные алгоритмы работают не так, как настоящий мозг, некоторые критики
предлагают воссоздать нейронную сеть человека, владеющего китайской письменностью. Тогда
такая нейронная сеть должна понимать иероглифы точно так же, как и человек. На это Сёрл
возражал, что даже симуляция работы мозга недостаточна для создания эффекта понимания, и
предлагал модифицированную «китайскую комнату». В такой комнате вместо нейронов можно
представить водопроводные трубы, а человек внутри комнаты переключает эти трубы согласно
инструкции в зависимости от входных сигналов. При этом понимания иероглифов не появляется
ни у человека, ни у водопроводных труб[1][5].
Другие умы
Ещё одно возражение к «китайской комнате» основано на том, что мы определяем, понимает ли
человек китайские иероглифы, лишь по его поведению. Если компьютер ведёт себя так же, как
человек, владеющий китайской письменностью, то тогда нам следует полагать, что и компьютер
её понимает. Таким критикам Сёрл отвечал, что суть аргумента не в том, откуда мы знаем, что у
других людей есть ментальные состояния, а в том, что́ есть эти ментальные состояния. С точки
зрения Сёрла, ментальные состояния не могут быть определены как просто вычислительный
процесс и его вывод, поскольку для этого не требуется ментальное состояние[1][5].
Интуиция
Многие исследователи критиковали Сёрла за то, что в своих суждениях относительно терминов
«понимание» и «сознание» он опирается на интуицию. Однако многие
вещи контринтуитивны даже в современной науке, поэтому не следует полагаться на интуицию в
суждениях об искусственном интеллекте. В качестве иллюстрации С. Пинкер приводит научно-
фантастический очерк, где инопланетяне, имеющие другую форму сознания, прибывают на Землю
и не могут поверить, что люди способны что-либо понимать, поскольку внутри их голов
находится мясо. По мнению Пинкера, интуиция подводит инопланетян так же, как она подводит
Сёрла[1]. Д. Хофштадтер заявлял также, что автор просто не принимает идею возможности
сильного ИИ, настаивая, что тому не будет хватать некой чудодейственной «каузальной силы
мозга», которую Сёрл описывает по-разному и с пробелами в логике[4].

Общие философские вопросы


Синтаксис и семантика
Сёрл полагал, что эксперимент с «китайской комнатой» поднимает и более общий философский
вопрос соотношения синтаксиса и семантики. По его мнению, в эксперименте не удалось достичь
понимания потому, что человек внутри комнаты оперировал лишь синтаксическими
конструкциями, в то время как сознание обладает ментальными состояниями, содержащими
смысл. Человеческий разум, в отличие от компьютера, воспринимает иероглифы не по тому, как
они выглядят, а согласно смыслу, который они содержат. И хотя компьютеры и могут выдавать
ответы на естественном языке, они не связывают со словами никакого смысла. Сёрл считал, что
невозможно получить семантические значения лишь из формальных манипуляций символами[1].
В свою очередь, критики возражали, что компьютерная система, выполняющая программу, тоже
имеет сознание. Действительно, алгоритм, записанный в книге и лежащий на книжной полке, не
может привести к появлению понимания. Но алгоритм, запущенный на сложной вычислительной
машине, имеющий как физическое состояние (вольтаж на транзисторе), так и интерпретацию
физического состояния (символы), вполне может давать «эффект» понимания. В качестве
пародийного контрпримера к аргументам Сёрла Д. Чалмерс приводит рецепт кекса, который
является чисто синтаксической конструкцией и не приводит к «эффекту» рассыпчатости (аналог
«понимания» у Сёрла), однако кексы являются рассыпчатыми, следовательно, выполнение
рецепта недостаточно для появления кекса[1].
Станислав Лем утверждал, что описанная в эксперименте Сёрла работа
вообще всегда асемантично формальна, следовательно, «понимание» в самих текстах не
участвует и тем более «сознание» (в т.ч. в системе «Сёрл—инструкции»), — тем самым идея
доводится до абсурда, не имея отношения к реальной проблематике ИИ[6][7].
Сознание и тело
Ещё одним вопросом в дискуссии стала проблема соотношения тела и сознания. По мнению
Сёрла, сознание — это одна из эксклюзивных способностей мозга, основанная на его нейронных
процессах. То есть Сёрл является сторонником теории идентичности в философии сознания[1].
Сторонники функционализма же, напротив, полагают, что любое ментальное состояние (в том
числе сознание) является тем, какие функции оно выполняет. Следовательно, сознание может
быть реализовано на любой платформе, которая позволяет выполнить те же функции[1].
Современные исследования в области нейронауки пока не позволяют сказать, является ли
сознание достаточно абстрактной сущностью, чтобы быть абстрагированной от нейронов, или,
наоборот, сильно связано с биологической основой функционирования мозга. Этот вопрос
остаётся открытым[1].
Симуляция и дупликация
В дискуссии Сёрл также упирал на разницу между симуляцией и дупликацией. Ведь никто не
путает компьютерную симуляцию погоды с реальной погодой. Так, по мнению Сёрла, и не стоит
путать компьютерную симуляцию понимания с реальным пониманием. Однако к этому аргументу
высказывались претензии о невозможности отличить симуляцию от дупликации. Например, не
ясно, является ли искусственное сердце симуляцией настоящего сердца или дубликатом. То же
самое применимо к протезам: люди на протезах ходят или симулируют хождение? Поэтому
принцип разделения симуляции и дупликации Сёрла имеет серьёзные проблемы[1].

Влияние
Несмотря на длительные дискуссии исследователей из различных областей, спустя более чем 30
лет консенсус относительно аргумента Сёрла до сих пор не достигнут. Одни называют этот
мысленный эксперимент самым известным контрпримером в истории, нанёсшим удар по
функционализму, от которого тот так и не смог оправиться. Его также называют классическим
аргументом для когнитивной науки[8]. Другие (например, Д. Хофштадтер, Д. Деннет, С. Лем)
считают этот аргумент явно ошибочным и вводящим в заблуждение[9].
Аргумент «китайской комнаты» был предложен Джоном Сёрлом в статье «Сознание, мозг
и программы» и впоследствии воспроизводился в других его работах. Этот аргумент направлен
против такой позиции философии сознания, как функционализм. Уточняя, можно отметить, что
аргумент направлен против машинного функционализма, или, как отмечает Сёрл, против сильной
версии искусственного интеллекта.
Позиция функционализма, позиция исследователей в области искусственного интеллекта,
заключается в том, что наши ментальные состояния рассматриваются как функциональные
состояния мозга или организма в целом. В свое время функционализм был очень прогрессивной
позицией: до его появления материалистически настроенные философы пытались отождествить
ментальные состояния с физическими состояниями мозга. Функционалисты же утверждали, что
ментальные состояния необязательно должны являться состояниями мозга. Важно, чтобы они
являлись функциональными состояниями.
Это значит, что, в принципе, они могут быть реализованы на любом другом носителе,
не обязательно, чтобы у существа был именно человеческий мозг. Существо может быть устроено
совсем иным образом, например как компьютер. Оно может быть небиологического
происхождения. Главное, чтобы оно функционировало определенным образом, так же, как
функционируем мы. Если в этом существе реализуются определенные функциональные
состояния, то можно говорить о том, что у него есть ментальные состояния, что в каком-то смысле
оно обладает сознанием, психикой. Этот взгляд был очень популярным; в принципе,
с определенными модификациями он и сейчас поддерживается многими исследователями. Однако
Сёрл критикует эту позицию.
Для того чтобы показать ее неубедительность, он предлагает аргумент «китайской
комнаты». Суть этого аргумента заключается в следующем. Представим, что человека,
не знающего китайский язык, поместили в отдельную комнату, в которой находятся кубики
с иероглифами. Человек не знает иероглифов, но у него есть инструкция на английском языке,
которая говорит, какой кубик надо брать и какой кубик надо выдавать в ответ на определенные
запросы, приходящие извне.
Скажем, вы делаете какой-то запрос, спрашиваете: «Сколько вам лет?» Человек смотрит
в инструкцию на английском языке, в этой инструкции говорится о том, что необходимо взять
определенный кубик и положить его в определенное место. Если человек успешно манипулирует
этими кубиками, то на выходе мы будем получать ответы на китайском языке, то есть китаец,
который будет наблюдать за этим экспериментом, увидит, что ответы получаются в общем
осмысленными. Но сам человек в этой комнате никогда не будет знать, что же он сказал, что
он сделал: он по-прежнему не будет понимать китайский язык.
Кажется, будто «китайская комната» вместе с этим человеком понимает наши вопросы
и дает осмысленные ответы. Но сам человек ничего не понимает.
Если этот вывод кажется справедливым, то это свидетельствует о том, что наличие
простого функционирования недостаточно для того, чтобы мы сказали, что у объекта, который
дает определенные ответы, есть какое-то понимание того, что он делает, есть сознание,
определенные ментальные состояния. Иначе говоря, испытуемый в комнате оперирует знаками
на уровне синтаксиса, складывает их по определенным правилам, семантика — смысловое
наполнение этих знаков — для него не доступна. Все это приводит нас к выводу
о неудовлетворительности функционалистской программы в целом.
Против этого аргумента выдвигалось множество различных возражений. Например,
многие указывали на то, что в мысленном эксперименте речь идет о функционировании всей
системы, всей комнаты, что в каком-то смысле всей комнате мы можем приписать ментальные
состояния, но их нельзя приписать конкретному человеку — он всего лишь часть определенной
машины. Однако, несмотря на эти возражения, все же следует признать, что аргумент Сёрла внес
значительный вклад в опровержение функционализма.