1.13. Доказательство Джона Серла

К оглавлению1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 
17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 
34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 
51 52 53 54 55 56 57 58 59 60 61 62 

Прежде чем представить свое собственное рассуждение, хотелось бы вкратце упомянуть о совсем иной линии доказа­тельства — знаменитой «китайской комнате» философа Джона Серла — главным образом для того, чтобы подчеркнуть су­щественное отличие от нее моего доказательства как по общему характеру, так и по базовым концепциям. Доказательство Серла тоже связано с проблемой «понимания» и имеет целью выяс­нить, можно ли утверждать, что функционирование достаточно сложного компьютера реализует это свойство мышления. Я не буду повторять здесь рассуждение Серла во всех подробностях, а лишь кратко обозначу его суть.

Дана некая компьютерная программа, которая демонстри­рует имитацию «понимания», отвечая на вопросы о какой-то рассказанной ей предварительно истории, причем все вопросы и ответы даются на китайском языке. Далее Серл рассматривает не владеющего китайским языком человека, который старатель­но воспроизводит все до единой вычислительные операции, вы­полняемые в процессе имитации компьютером. При этом когда вычисления выполняет компьютер, получаемые на его выходе данные создают некоторую видимость понимания; когда же все необходимые вычисления посредством соответствующих мани­пуляций воспроизводит человек, какого-либо понимания в дей­ствительности не возникает. На этом основании Серл утвержда­ет, что понимание как свойство мышления не может сводиться исключительно к вычислениям — хотя человек (не знающий ки­тайского) и воспроизводит каждую вычислительную операцию, выполняемую компьютером, он все же совершенно не понимает смысла рассказанной истории. Серл допускает, что возможно осуществить моделирование получаемых на выходе результатов понимания (в полном соответствии с точкой зрения ), посколь­ку он полагает, что это вполне достижимо посредством компью­терного моделирования всей физической активности мозга (чем бы он при этом ни занимался) в тот момент, когда его владелец вдруг что-либо понимает. Однако главный вывод из «китайской комнаты» Джона Серла заключается в том, что сама по себе модель в принципе не способна действительно «ощутить» по­нимание. То есть для любой компьютерной модели подлинное понимание остается, в сущности, недостижимым.

Доказательство Серла направлено против точки зрения  (согласно которой любая «модель» понимания эквивалентна «подлинному» пониманию) и, по замыслу автора, в поддержку точки зрения (хотя в той же мере оно поддерживает и или ). Оно имеет дело с пассивным, обращенным внутрь, или субъективным аспектами понимания, однако при этом не отри­цает возможности моделирования понимания в его активном, обращенном наружу, или объективном аспектах. Сам Серл однажды заявил: «Несомненно, мозг — это цифровой компьютер. Раз кругом одни цифровые компьютеры, значит, и мозг должен быть одним из них». Отсюда можно заключить, что Серл го­тов принять возможность полного моделирования работы обла­дающего сознанием мозга в процессе «понимания», результатом которого оказалась бы полная тождественность внешних прояв­лений модели и внешних проявлений действительно мыслящего человеческого существа, что соответствует точке зрения . Мое же исследование призвано показать, что одними лишь внешними проявлениями «понимание» отнюдь не ограничивается, в связи с чем я утверждаю, что невозможно построить достоверную ком­пьютерную модель даже внешних проявлений понимания. Я не привожу здесь аргументацию Серла в подробностях, поскольку точку зрения она напрямую не поддерживает (а целью всех наших дискуссий здесь является как раз поддержка и ничто иное). Тем не менее, следует отметить, что концепция «китайской комнаты» предоставляет, на мой взгляд, достаточно убедитель­ный аргумент против , хоть я и не считаю этот аргумент реша­ющим. Более подробное изложение и различные контраргументы представлены в [339], обсуждение — там же и в [202]; см. так­же [79] и [340]. Мою оценку можно найти в НРК, с. 17—23.

 

Прежде чем представить свое собственное рассуждение, хотелось бы вкратце упомянуть о совсем иной линии доказа­тельства — знаменитой «китайской комнате» философа Джона Серла — главным образом для того, чтобы подчеркнуть су­щественное отличие от нее моего доказательства как по общему характеру, так и по базовым концепциям. Доказательство Серла тоже связано с проблемой «понимания» и имеет целью выяс­нить, можно ли утверждать, что функционирование достаточно сложного компьютера реализует это свойство мышления. Я не буду повторять здесь рассуждение Серла во всех подробностях, а лишь кратко обозначу его суть.

Дана некая компьютерная программа, которая демонстри­рует имитацию «понимания», отвечая на вопросы о какой-то рассказанной ей предварительно истории, причем все вопросы и ответы даются на китайском языке. Далее Серл рассматривает не владеющего китайским языком человека, который старатель­но воспроизводит все до единой вычислительные операции, вы­полняемые в процессе имитации компьютером. При этом когда вычисления выполняет компьютер, получаемые на его выходе данные создают некоторую видимость понимания; когда же все необходимые вычисления посредством соответствующих мани­пуляций воспроизводит человек, какого-либо понимания в дей­ствительности не возникает. На этом основании Серл утвержда­ет, что понимание как свойство мышления не может сводиться исключительно к вычислениям — хотя человек (не знающий ки­тайского) и воспроизводит каждую вычислительную операцию, выполняемую компьютером, он все же совершенно не понимает смысла рассказанной истории. Серл допускает, что возможно осуществить моделирование получаемых на выходе результатов понимания (в полном соответствии с точкой зрения ), посколь­ку он полагает, что это вполне достижимо посредством компью­терного моделирования всей физической активности мозга (чем бы он при этом ни занимался) в тот момент, когда его владелец вдруг что-либо понимает. Однако главный вывод из «китайской комнаты» Джона Серла заключается в том, что сама по себе модель в принципе не способна действительно «ощутить» по­нимание. То есть для любой компьютерной модели подлинное понимание остается, в сущности, недостижимым.

Доказательство Серла направлено против точки зрения  (согласно которой любая «модель» понимания эквивалентна «подлинному» пониманию) и, по замыслу автора, в поддержку точки зрения (хотя в той же мере оно поддерживает и или ). Оно имеет дело с пассивным, обращенным внутрь, или субъективным аспектами понимания, однако при этом не отри­цает возможности моделирования понимания в его активном, обращенном наружу, или объективном аспектах. Сам Серл однажды заявил: «Несомненно, мозг — это цифровой компьютер. Раз кругом одни цифровые компьютеры, значит, и мозг должен быть одним из них». Отсюда можно заключить, что Серл го­тов принять возможность полного моделирования работы обла­дающего сознанием мозга в процессе «понимания», результатом которого оказалась бы полная тождественность внешних прояв­лений модели и внешних проявлений действительно мыслящего человеческого существа, что соответствует точке зрения . Мое же исследование призвано показать, что одними лишь внешними проявлениями «понимание» отнюдь не ограничивается, в связи с чем я утверждаю, что невозможно построить достоверную ком­пьютерную модель даже внешних проявлений понимания. Я не привожу здесь аргументацию Серла в подробностях, поскольку точку зрения она напрямую не поддерживает (а целью всех наших дискуссий здесь является как раз поддержка и ничто иное). Тем не менее, следует отметить, что концепция «китайской комнаты» предоставляет, на мой взгляд, достаточно убедитель­ный аргумент против , хоть я и не считаю этот аргумент реша­ющим. Более подробное изложение и различные контраргументы представлены в [339], обсуждение — там же и в [202]; см. так­же [79] и [340]. Мою оценку можно найти в НРК, с. 17—23.