1.13. Доказательство Джона Серла
К оглавлению1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 1617 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33
34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
51 52 53 54 55 56 57 58 59 60 61 62
Прежде чем представить свое собственное рассуждение, хотелось бы вкратце упомянуть о совсем иной линии доказательства — знаменитой «китайской комнате» философа Джона Серла — главным образом для того, чтобы подчеркнуть существенное отличие от нее моего доказательства как по общему характеру, так и по базовым концепциям. Доказательство Серла тоже связано с проблемой «понимания» и имеет целью выяснить, можно ли утверждать, что функционирование достаточно сложного компьютера реализует это свойство мышления. Я не буду повторять здесь рассуждение Серла во всех подробностях, а лишь кратко обозначу его суть.
Дана некая компьютерная программа, которая демонстрирует имитацию «понимания», отвечая на вопросы о какой-то рассказанной ей предварительно истории, причем все вопросы и ответы даются на китайском языке. Далее Серл рассматривает не владеющего китайским языком человека, который старательно воспроизводит все до единой вычислительные операции, выполняемые в процессе имитации компьютером. При этом когда вычисления выполняет компьютер, получаемые на его выходе данные создают некоторую видимость понимания; когда же все необходимые вычисления посредством соответствующих манипуляций воспроизводит человек, какого-либо понимания в действительности не возникает. На этом основании Серл утверждает, что понимание как свойство мышления не может сводиться исключительно к вычислениям — хотя человек (не знающий китайского) и воспроизводит каждую вычислительную операцию, выполняемую компьютером, он все же совершенно не понимает смысла рассказанной истории. Серл допускает, что возможно осуществить моделирование получаемых на выходе результатов понимания (в полном соответствии с точкой зрения ), поскольку он полагает, что это вполне достижимо посредством компьютерного моделирования всей физической активности мозга (чем бы он при этом ни занимался) в тот момент, когда его владелец вдруг что-либо понимает. Однако главный вывод из «китайской комнаты» Джона Серла заключается в том, что сама по себе модель в принципе не способна действительно «ощутить» понимание. То есть для любой компьютерной модели подлинное понимание остается, в сущности, недостижимым.
Доказательство Серла направлено против точки зрения (согласно которой любая «модель» понимания эквивалентна «подлинному» пониманию) и, по замыслу автора, в поддержку точки зрения (хотя в той же мере оно поддерживает и или ). Оно имеет дело с пассивным, обращенным внутрь, или субъективным аспектами понимания, однако при этом не отрицает возможности моделирования понимания в его активном, обращенном наружу, или объективном аспектах. Сам Серл однажды заявил: «Несомненно, мозг — это цифровой компьютер. Раз кругом одни цифровые компьютеры, значит, и мозг должен быть одним из них». Отсюда можно заключить, что Серл готов принять возможность полного моделирования работы обладающего сознанием мозга в процессе «понимания», результатом которого оказалась бы полная тождественность внешних проявлений модели и внешних проявлений действительно мыслящего человеческого существа, что соответствует точке зрения . Мое же исследование призвано показать, что одними лишь внешними проявлениями «понимание» отнюдь не ограничивается, в связи с чем я утверждаю, что невозможно построить достоверную компьютерную модель даже внешних проявлений понимания. Я не привожу здесь аргументацию Серла в подробностях, поскольку точку зрения она напрямую не поддерживает (а целью всех наших дискуссий здесь является как раз поддержка и ничто иное). Тем не менее, следует отметить, что концепция «китайской комнаты» предоставляет, на мой взгляд, достаточно убедительный аргумент против , хоть я и не считаю этот аргумент решающим. Более подробное изложение и различные контраргументы представлены в [339], обсуждение — там же и в [202]; см. также [79] и [340]. Мою оценку можно найти в НРК, с. 17—23.
Прежде чем представить свое собственное рассуждение, хотелось бы вкратце упомянуть о совсем иной линии доказательства — знаменитой «китайской комнате» философа Джона Серла — главным образом для того, чтобы подчеркнуть существенное отличие от нее моего доказательства как по общему характеру, так и по базовым концепциям. Доказательство Серла тоже связано с проблемой «понимания» и имеет целью выяснить, можно ли утверждать, что функционирование достаточно сложного компьютера реализует это свойство мышления. Я не буду повторять здесь рассуждение Серла во всех подробностях, а лишь кратко обозначу его суть.
Дана некая компьютерная программа, которая демонстрирует имитацию «понимания», отвечая на вопросы о какой-то рассказанной ей предварительно истории, причем все вопросы и ответы даются на китайском языке. Далее Серл рассматривает не владеющего китайским языком человека, который старательно воспроизводит все до единой вычислительные операции, выполняемые в процессе имитации компьютером. При этом когда вычисления выполняет компьютер, получаемые на его выходе данные создают некоторую видимость понимания; когда же все необходимые вычисления посредством соответствующих манипуляций воспроизводит человек, какого-либо понимания в действительности не возникает. На этом основании Серл утверждает, что понимание как свойство мышления не может сводиться исключительно к вычислениям — хотя человек (не знающий китайского) и воспроизводит каждую вычислительную операцию, выполняемую компьютером, он все же совершенно не понимает смысла рассказанной истории. Серл допускает, что возможно осуществить моделирование получаемых на выходе результатов понимания (в полном соответствии с точкой зрения ), поскольку он полагает, что это вполне достижимо посредством компьютерного моделирования всей физической активности мозга (чем бы он при этом ни занимался) в тот момент, когда его владелец вдруг что-либо понимает. Однако главный вывод из «китайской комнаты» Джона Серла заключается в том, что сама по себе модель в принципе не способна действительно «ощутить» понимание. То есть для любой компьютерной модели подлинное понимание остается, в сущности, недостижимым.
Доказательство Серла направлено против точки зрения (согласно которой любая «модель» понимания эквивалентна «подлинному» пониманию) и, по замыслу автора, в поддержку точки зрения (хотя в той же мере оно поддерживает и или ). Оно имеет дело с пассивным, обращенным внутрь, или субъективным аспектами понимания, однако при этом не отрицает возможности моделирования понимания в его активном, обращенном наружу, или объективном аспектах. Сам Серл однажды заявил: «Несомненно, мозг — это цифровой компьютер. Раз кругом одни цифровые компьютеры, значит, и мозг должен быть одним из них». Отсюда можно заключить, что Серл готов принять возможность полного моделирования работы обладающего сознанием мозга в процессе «понимания», результатом которого оказалась бы полная тождественность внешних проявлений модели и внешних проявлений действительно мыслящего человеческого существа, что соответствует точке зрения . Мое же исследование призвано показать, что одними лишь внешними проявлениями «понимание» отнюдь не ограничивается, в связи с чем я утверждаю, что невозможно построить достоверную компьютерную модель даже внешних проявлений понимания. Я не привожу здесь аргументацию Серла в подробностях, поскольку точку зрения она напрямую не поддерживает (а целью всех наших дискуссий здесь является как раз поддержка и ничто иное). Тем не менее, следует отметить, что концепция «китайской комнаты» предоставляет, на мой взгляд, достаточно убедительный аргумент против , хоть я и не считаю этот аргумент решающим. Более подробное изложение и различные контраргументы представлены в [339], обсуждение — там же и в [202]; см. также [79] и [340]. Мою оценку можно найти в НРК, с. 17—23.